Conséquences sur le plan de l’éthique et de la protection de la vie privée des stratégies de recrutement en ligne pour la recherche

Commentaires dans le cadre du cours de formation clinique de l’Institut de recherche en santé d’Ottawa

Ottawa, Ontario
Le 20 octobre 2014

Allocution prononcée par Patricia Kosseim
Avocate générale principale et directrice générale, Direction des services juridiques, des politiques et de la recherche

(Le texte prononcé fait foi)


Introduction

D’entrée de jeu, j’aimerais faire trois mises au point.

Premièrement, comme vous le savez, la recherche clinique menée dans les universités ou les hôpitaux d’enseignement est assujettie à la législation provinciale. Mais comme les entreprises du secteur privé jouent un rôle de plus en plus important dans le recrutement en ligne d’éventuels participants à la recherche, un fait sur lequel je reviendrai dans ma présentation, la législation fédérale deviendra plus pertinente dans votre milieu.

Deuxièmement, même si je siège actuellement au Conseil des gouverneurs de l’Hôpital d’Ottawa, c’est en qualité de représentante du Commissariat à la protection de la vie privée du Canada et de spécialiste du droit de la vie privée ayant un bon bagage en droit de la santé et en éthique que je m’adresse à vous aujourd’hui.

Troisièmement, pour les besoins de ma présentation, je citerai en exemple plusieurs méthodes de recrutement pour la recherche dans toute une gamme de disciplines non seulement dans le contexte de la recherche clinique, mais aussi dans celui de la recherche en sciences humaines et de la recherche comportementale.

Permettez-moi maintenant de vous donner un bref aperçu de ma présentation.

Je me pencherai d’abord sur certains défis persistants que les chercheurs continuent de rencontrer au moment de recruter et d’inscrire des participants pour une recherche clinique.

Je passerai ensuite en revue plusieurs nouvelles méthodes utilisées en ligne afin de trouver des participants admissibles pour la recherche. Ces exemples se situent sur un continuum allant des méthodes les plus courantes et évidentes aux plus nouvelles et moins évidentes.

J’examinerai aussi les nouveaux partenariats public-privé dans le cadre de la recherche en ligne et j’analyserai certaines répercussions sur le plan éthique et juridique.

Je me pencherai ensuite sur la façon dont l’émergence des mégadonnées transforme radicalement notre façon d’appréhender et de comprendre traditionnellement la recherche.

Et, pour conclure, j’exprimerai quelques réflexions sur la reddition de comptes et la responsabilité ultimes en matière de recherche.

Recrutement de patients pour la recherche : Des défis persistants

D’après un rapport récent du Centre pour l’étude du développement de médicaments de l’Université Tufts, les études cliniques prennent généralement deux fois plus de temps que prévu pour atteindre le nombre de participants souhaité. Pour un essai clinique donné, 11 % des sites n’arrivent pas à recruter un seul patient, tandis que 37 % n’en recrutent pas assez.

InVentiv Clinical Trial Recruitment Solutions a récemment publié un rapport technique intitulé e-Recruiting: Using Digital Platforms, Social Media and Mobile Technologies to Improve clinical Trial Enrollment. Selon ce rapport, le recrutement et l’inscription des patients accaparent près de 30 % du temps consacré aux essais cliniques. Or, pour chaque jour de retard dans un programme de développement de médicaments, il en coûte au promoteur 37 000 $ en charges d’exploitation supplémentaires et son manque à gagner se chiffre entre 600 000 $ et 8 millions de dollars.

Méthodes de recrutement en ligne : Un continuum

Ces défis persistants incitent les chercheurs cliniques à trouver de nouvelles méthodes pour recruter des candidats en ligne. Certains font même en ligne une partie de la recherche proprement dite dans la mesure du possible.

Permettez-moi de vous citer quelques exemples pour montrer la façon dont ils s’y prennent.

Exemple no 1 : Publicité en ligne simple

Dans ce premier exemple, nous voyons une publicité affichée sur KIJIJI pour annoncer une étude de l’Université d’Ottawa sur les comportements en matière de santé de personnes ayant survécu à plusieurs cancers. Les chercheurs souhaitent trouver des adultes de 18 ans ou plus qui parlent et comprennent l’anglais et à qui un médecin ou un autre professionnel de la santé a annoncé qu’ils avaient un cancer. On précise que la recherche est approuvée par le comité d’éthique de la recherche de l’Université d’Ottawa.

Les personnes intéressées sont invitées à cliquer sur un lien pour en savoir plus sur l’étude et avoir accès au formulaire de consentement approprié.

Essentiellement, sur le plan qualitatif, il n’y a aucune différence entre cette publicité et une publicité traditionnelle figurant dans un journal ou un magazine.

Une fois qu’un candidat a répondu à la publicité, il faut respecter les principes éthiques de base, entre autres l’obtention d’un consentement valide et éclairé et la protection des renseignements personnels.

Exemple no 2 : Publicité ciblée faite par la partie intéressée

Dans le deuxième exemple, nous voyons une page affichée par Facebook au nom d’une société de recherche qui fait des sondages en ligne auprès des consommateurs. Pour une somme modique, Facebook aiguille les publicités de l’entreprise vers les utilisateurs dont le profil correspond aux critères de participation, ce qui lui permet de cibler davantage de répondants susceptibles d’être admissibles. La recherche en ligne présente un avantage notable du fait que les formulaires électroniques limitent le coût d’administration des questionnaires comparativement aux méthodes traditionnelles de sondage postal ou téléphonique.

Ce type de recherche peut poser certains problèmes, par exemple le caractère indiscret des questions posées; la possibilité de distorsion de l’échantillon; l’impossibilité d’évaluer rapidement les problèmes d’aptitude dans un monde virtuel; et le degré de correspondance entre le profil des utilisateurs et leur identité (les répondants ne sont peut-être pas qui ils prétendent être).

Du point de vue de la protection des renseignements personnels, ces publicités sont généralement conformes à la politique de confidentialité de l’entreprise, en l’occurrence Facebook dans ce cas-ci. Lorsqu’un utilisateur s’inscrit, on tient pour acquis qu’il a lu et accepté les conditions de service.

Exemple no 3 : Publicité ciblée faite par un tiers

Un autre moyen à la disposition des chercheurs pour concentrer les efforts de recrutement de participants consiste à employer des publicités ciblées faites par un tiers. Afin de cibler les clients potentiels, la campagne publicitaire du thermomètre Vicks pour le derrière de l’oreille regroupait les données de Google sur les tendances de la grippe et l’information se rapportant aux utilisateurs recueillie au moyen des applications mobiles.

Vicks a utilisé les données de Google pour circonscrire les régions où les gens étaient les plus susceptibles d’être touchés par la grippe et, par le fait même, d’avoir besoin d’un thermomètre. Dans ces régions, certains prospects ont été ciblés d’après les données démographiques de base recueillies au moyen d’une applications mobile, dans ce cas le service de musique Pandora. Les utilisateurs de Pandora fournissent des données démographiques de base, soit l’âge, le sexe, le code postal et le statut parental. Leur appareil mobile peut aussi révéler à tout moment le lieu approximatif où ils se trouvent. En regroupant tous ces éléments d’information, Vicks a été en mesure d’aiguiller les publicités de ses thermomètres pour le derrière de l’oreille uniquement vers des utilisateurs précis de Pandora, soit des jeunes mères qui habitaient une région où le risque de grippe était élevé et à moins de deux milles des détaillants vendant le produit (entre autres Walmart, Target et Babies “R” Us).

S’il s’agit ici d’une publicité ciblée pour vendre un produit, cet exemple donne une bonne idée de la façon dont les sociétés pharmaceutiques ou autres pourraient utiliser des méthodes « intelligentes » similaires pour cibler en vue d’une recherche des candidats correspondant aux critères d’admissibilité. Il soulève toute une gamme d’autres enjeux relatifs à la vie privée, soit la question de savoir si les utilisateurs de l’application étaient conscients que leurs renseignements personnels serviraient pour des publicités ciblées faites par un tiers et si on leur a vraiment offert la possibilité de refuser ce type de publicité.

Exemple no 4 : Publicité contextuelle associée aux requêtes

La publicité contextuelle fait appel à l’information concernant la navigation d’un utilisateur sur un site Web pour afficher en temps réel une publicité ciblée à son intention. Par exemple, une personne qui cherche des essais cliniques en cours pour le cancer peut recevoir des publicités annonçant ce type d’essais à l’étape du recrutement de patients ou des publicités d’entreprises de recherche du secteur privé désireuses d’offrir aux chercheurs des services de recrutement contre rémunération.

Dans cet exemple, une recherche portant sur des essais cliniques en cours pour le cancer a donné lieu à des publicités contextuelles sur le site associé à des cliniques de médecine douce contre le cancer et à une entreprise annonçant des services de séquençage du génome.

De façon générale, cette forme de publicité est diffusée conformément aux conditions d’utilisation acceptées et à la politique de confidentialité de l’entreprise, soit Google dans ce cas.

Exemple no 5 : Publicité comportementale en ligne

Dans le cas de la publicité comportementale en ligne, on envoie à l’utilisateur des annonces publicitaires sans lien avec la page Web sur laquelle il se trouve. Cette publicité repose sur les requêtes antérieures suivies au fil du temps. Des témoins (cookies) de tiers placés dans le navigateur d’un utilisateur permettent de suivre ses activités lorsqu’il navigue dans le Web. En le suivant ainsi à la trace, les annonceurs peuvent créer un profil associé à son navigateur et obtenir une mosaïque brossant un « portrait » de ses intérêts. Les publicités adaptées en fonction des intérêts déterminés par déduction sont affichées à l’intention des utilisateurs correspondant à un profil donné.

D’après l’énoncé de politique du Commissariat sur la publicité comportementale, un modèle de consentement négatif peut être acceptable pour la publicité comportementale en ligne à condition que certaines conditions soient respectées :

  • Les utilisateurs sont informés de la pratique en question de façon claire, transparente et compréhensible.
  • Les utilisateurs sont informés de cette pratique au moment de la collecte ou avant et reçoivent de l’information sur les différentes parties qui participent à la publicité comportementale en ligne.
  • Les utilisateurs peuvent facilement se soustraire à la pratique — de préférence au moment de la collecte de l’information ou avant.
  • Le non-consentement entre en vigueur immédiatement et est durable.
  • L’information recueillie et utilisée est détruite dès que possible ou dépersonnalisée de façon efficace.
  • Dans la mesure du possible, l’information recueillie et utilisée se limite à des renseignements non sensibles (éviter les renseignements sensibles comme l’information sur la condition médicale ou la santé).

En janvier 2014, le Commissariat a annoncé ses premières conclusions en lien avec la publicité comportementale en ligne. Pour résumer, les faits étaient les suivants : le plaignant avait découvert qu’il était suivi à la trace d’un site Web à l’autre après avoir consulté des sites portant sur des appareils destinés aux personnes souffrant d’apnée du sommeil. Même sur les sites Web n’ayant aucun lien avec ce syndrome, il recevait des publicités annonçant ces appareils.

On peut en déduire qu’il était suivi à la trace à partir d’information sur sa santé — ce qui va à l’encontre de nos Lignes directrices sur la publicité comportementale en ligne et, par surcroît, de la politique de confidentialité affichée par Google elle-même. En effet, cette politique indique aux utilisateurs qu’ils ne seront pas suivis sur la base de renseignements sensibles, incluant l’information sur la santé.

Google a accepté de mettre en œuvre toutes les recommandations précises que nous lui avions formulées.

Exemple no 6 : Utilisation secondaire de renseignements personnels

Un sixième exemple montre comment l’utilisation secondaire de renseignements affichés en ligne à d’autres fins permet d’améliorer les stratégies de recrutement de participants à la recherche. Les sites de tests génétiques proposés directement aux consommateurs, offrent de nombreuses possibilités de trouver des candidats éventuels répondant aux critères d’admissibilité et de les contacter pour les faire participer à une étude donnée. Or, nombre de ces sites renferment des renseignements personnels très sensibles.

Les conditions d’utilisation déterminent si des renseignements permettant d’identifier des clients ou des membres peuvent être utilisés ou communiqués à des fins de recherche. Au départ, qu’a-t-on dit aux utilisateurs concernant les conditions associées à l’inscription sur le site? Il faut ensuite nécessairement se demander si les conditions d’utilisation ou la politique de confidentialité de ces sites Web indiquent clairement que les renseignements personnels des utilisateurs pourront servir à des fins de recherche, sous quelle forme (respect ou non de l’anonymat) et par qui (responsables du site Web ou tiers); si l’information était assez claire pour permettre de déduire que l’utilisateur a donné un consentement éclairé; et si la recherche proposée concorde vraiment avec les attentes raisonnables des utilisateurs.

Tout récemment, 23andMe a annoncé son intention de pénétrer le marché canadien et d’offrir au prix de 199 $ des tests génétiques sur l’ADN des intéressés pour vérifier le risque par rapport à 108 états pathologiques différents. Leur politique de confidentialité décrit de façon très détaillée les « recherches de 23andMe » (23andMe Research), c’est-à-dire « les recherches scientifiques menées par 23andMe ou par une tierce partie en collaboration avec 23andMe [notre traduction] », et énonce les conditions d’un consentement distinct pour ces fins.

Exemple no 7 : Surveillance des médias sociaux

Une étude publiée en 2011 dans Nature Biotechnology décrit un exemple intéressant d’utilisation de la surveillance en ligne à des fins de recherche. Les chercheurs ont recueilli les données du site PatientsLikeMe.com, forum en ligne où les personnes souffrant d’une maladie grave peuvent échanger sur « leur expérience concrète dans le domaine de la santé ». Pour cette étude, les chercheurs ont examiné les données déclarées par les patients eux-mêmes au sujet des effets du carbonate de lithium utilisé pour traiter la maladie de Lou Gehrig. Ils en ont conclu que le traitement en question n’avait aucun effet sur la progression de la maladie sur une période de 12 mois, ce qui correspond effectivement aux résultats d’essais aléatoires menés en parallèle.

Les auteurs de l’étude reconnaissent que ce type d’analyse observationnelle ne saurait remplacer véritablement les essais aléatoires à double insu, qui constituent la référence absolue. Mais l’étude montre tout de même que les forums en ligne s’adressant aux patients peuvent offrir un environnement d’observation pour surveiller la progression de maladies et l’efficacité des traitements. À condition, bien entendu, que les utilisateurs le sachent et le comprennent et qu’ils consentent à participer à cette démarche — et à condition aussi que l’on se préoccupe de la vulnérabilité particulière des groupes de patients en ligne dans ces types de situations.

En mai 2010, on a découvert qu’un représentant de la société Nielsen avait infiltré le forum de discussion en ligne PatientsLikeMe. Nielsen est une entreprise d’envergure mondiale qui publie de l’information sur ce que les internautes regardent, écoutent et achètent en ligne. En utilisant un logiciel à la fine pointe, l’entreprise a épluché tous les messages affichés dans le forum. Or, bon nombre de ces messages renfermaient des renseignements personnels très sensibles des membres. De toute évidence, cette pratique contrevenait aux conditions d’utilisation du forum en ligne et aux attentes raisonnables des membres. À sa décharge, Nielsen a mis fin à cette pratique de son propre gré, mais seulement après que des centaines de membres horrifiés eurent quitté le site Web PatientsLikeMe en proie à la colère et à la déception.

Un exemple plus récent d’utilisation de renseignements personnels en ligne à des fins publicitaires a été mis au jour en 2013. Le site de rencontres PositiveSingles s’adresse aux personnes ayant obtenu un résultat positif au test de dépistage d’une infection transmissible sexuellement (ITS). D’après l’enquête menée par notre organisme à la suite d’une plainte, le site partageait avec des sites Web affiliés des renseignements extrêmement sensibles concernant ses utilisateurs sans les en avoir informés ni avoir obtenu un consentement valable. Le site contrevenait ainsi aux attentes raisonnables des utilisateurs en matière de respect de la vie privée.

Exemple no 8 : Externalisation ouverte

On voit aussi apparaître de nouvelles plateformes d’externalisation ouverte. Les demandeurs affichent des tâches informatisées qu’ils souhaitent faire accomplir par des humains contre rémunération. Pour leur part, les exécutants choisissent les tâches qu’ils souhaitent accomplir. Il s’agit essentiellement de marchés du travail en ligne.

Dans le cas cité en exemple, Mechanical Turk d’Amazon proposait 426 018 tâches « HIT » (Human Intelligence Tasks). Ce service compte des centaines de milliers d’exécutants et des dizaines de milliers de demandeurs.

Les chercheurs qui s’intéressent au comportement ont compris les avantages d’utiliser ce marché en ligne — qui donne accès à un bassin très vaste et stable de personnes de tous horizons toujours disponibles et prêtes à effectuer des tâches (comme participer à des études de recherche ou à des sondages en ligne) contre une rémunération relativement modeste.

Pour chaque tâche, le site indique un titre, le nom du demandeur, la rémunération offerte, le nombre de tâches connexes proposées, le temps alloué par le demandeur pour accomplir chaque tâche, la date d’expiration, le pays de résidence requis et toute qualification particulière exigée.

Ces marchés virtuels soulèvent une nouvelle gamme de questions : comment obtenir un consentement valable et éclairé avant que les exécutants acceptent les tâches; quand et comment informer les participants si l’étude comporte un élément trompeur; comme dans le cas des autres stratégies en ligne, comment empêcher la participation d’enfants ou d’adultes frappés d’une incapacité juridique; quelle rémunération offrir; et comment assurer la confidentialité — l’identité des exécutants n’est pas dévoilée, mais il est possible de les identifier si le demandeur a besoin de communiquer avec eux. Il y a aussi des problèmes de sécurité concernant le lieu de stockage des données. L’avantage des tâches « externes » tient au fait que les données recueillies sont transmises directement au demandeur. Dans le cas des tâches « internes », elles sont d’abord stockées sur les serveurs d’Amazon.

Voici à titre d’exemple une tâche affichée par la faculté d’éducation de l’Université Columbia afin de trouver des participants pour une étude sur la spiritualité, la santé et la psychologie. Il s’agit d’une tâche d’une durée d’une heure et demie à deux heures au tarif de 6,50 $ l’heure. La demande expire après cinq jours. Les personnes intéressées doivent maîtriser l’anglais et répondre au questionnaire de sondage en entier. Elles ne doivent pas avoir participé au sondage auparavant. Les participants sont tenus d’entrer leur code d’identification de Mechanical Turk avant de commencer.

Exemple no 9 : Technologies mobiles

Les technologies mobiles constituent une autre stratégie utilisée pour recruter d’éventuels participants à la recherche.

Un exemple intéressant montre l’efficacité de cette stratégie. Il s’agit d’une étude menée par Nathan Eagle de l’École de santé publique de Harvard, qui a mis au point un nouveau système de surveillance de la banque de sang au Kenya. Conscient de l’essor exponentiel des technologies mobiles en Afrique, Eagle a trouvé une façon novatrice de contrôler la banque de sang en demandant aux infirmières en santé publique d’envoyer des messages textes indiquant en temps réel les réserves de sang dans les hôpitaux ruraux à la grandeur du pays. Au début, il a connu beaucoup de succès. Le niveau de participation et de communication en temps réel était très élevé, jusqu’à ce que la moitié des infirmières cessent de transmettre les données. Elles avaient constaté que les frais de transmission qu’elles devaient assumer personnellement étaient très élevés — ils représentaient une grande partie de leur rémunération quotidienne.

En collaboration avec les exploitants de téléphonie mobile d’Afrique de l’Est, le chercheur a trouvé une façon de créditer automatiquement au compte des infirmières participantes le coût d’envoi de chaque message à la base de données centrale. On accordait même un sou supplémentaire pour chaque message formaté de façon appropriée. Pratiquement toutes les infirmières ont recommencé à participer au programme.

Depuis lors, Eagle a cofondé l’entreprise Jana, qui permet aux organisations de communiquer par téléphonie mobile avec des gens dans des marchés émergents. D’après son site Web, l’entreprise offre du temps d’utilisation gratuit aux personnes qui accomplissent certaines tâches, par exemple répondre à des sondages en ligne. Sa plateforme d’offre de temps d’utilisation a été intégrée dans les systèmes de plus de 200 exploitants de téléphonie mobile pour offrir aux clients une capacité unique en son genre de rémunérer instantanément 3,48 milliards de personnes en 70 monnaies locales.

En ce qui a trait à l’environnement mobile, il faut souligner la difficulté d’obtenir un consentement valable en raison de la petite taille de l’écran. Le Commissariat a élaboré à l’intention des concepteurs d’applications mobiles des lignes directrices qui proposent des techniques, par exemple l’organisation de l’information en couches, des fenêtres contextuelles qui apparaissent au bon moment et des sons avertissant les utilisateurs lorsqu’ils sont sur le point de communiquer des renseignements personnels dans une application mobile.

Exemple no 10 : Accessoires intelligents portés sur le corps

Les accessoires intelligents constituent une autre technologie nouvelle. Ils ont ouvert toute une gamme de possibilités d’identifier d’éventuels participants à la recherche dont l’admissibilité est déterminée à partir de certains indicateurs de l’état de santé et de recueillir des données non seulement auprès des participants mais aussi directement dans leurs accessoires intelligents. Citons par exemple les lentilles de contact mises au point par Google, qui mesurent la glycémie dans le liquide lacrymal pour gérer le diabète.

Comme les accessoires portés sur le corps permettent d’évaluer l’état de santé et de communiquer les résultats en ligne, les patients pourront envoyer directement aux chercheurs les renseignements mêmes dont ils ont besoin pour déterminer s’ils respectent les critères d’admissibilité requis afin de participer à certaines études.

Cette situation soulève une nouvelle gamme de problèmes éthiques et juridiques sur lesquels nous devrons nous pencher attentivement à mesure que ces nouveaux appareils se répandront sur le marché.

Recherche et associations insolites

Depuis des dizaines d’années, avocats et éthiciens doivent définir des paramètres pour orienter les partenariats public-privé en recherche clinique, particulièrement les collaborations auxquelles prennent part des sociétés pharmaceutiques. Il s’agit d’élaborer des règles concernant la propriété intellectuelle et la publication d’articles, les honoraires des médecins et des recruteurs de patients, les conflits d’intérêts, etc.

L’explosion de la technologie Web a montré très clairement que les géants du monde en ligne, entre autres Google et Facebook, détiennent davantage de données en sciences humaines que les universitaires ne pourront jamais en détenir, en reproduire, voire en imaginer, ce qui ouvre la voie à toute une gamme de nouveaux partenariats public-privé.

Des entreprises du secteur privé détiennent d’énormes quantités de données sociodémographiques et comportementales et elles reconnaissent que les renseignements personnels constituent le nouvel « or noir ». C’est pourquoi elles ont commencé à jouer un rôle beaucoup plus actif, direct et important dans la recherche avec des êtres humains.

Aujourd’hui, pratiquement tout le monde fait de la recherche : les gouvernements, les entreprises, les exploitants de plateformes, voire les simples citoyens.

L’étude de Facebook sur la « contagion émotionnelle » est un bon exemple du pouvoir des géants en ligne dans le domaine de la recherche. L’entreprise a récemment mené une expérience psychologique en trafiquant l’information reçue par 689 000 utilisateurs. Facebook a apporté des modifications mineures à l’algorithme de son fil d’actualité de manière à montrer des affichages plus positifs aux membres d’un groupe et des affichages plus négatifs à ceux d’un autre groupe. Elle a ensuite vérifié l’incidence sur l’humeur des utilisateurs en comptant le nombre de mots généralement positifs ou négatifs dans les messages que ces derniers affichaient personnellement par la suite.

Les chercheurs de l’Université Cornell avec lesquels Facebook collaborait ont demandé l’approbation d’un comité d’éthique en recherche, mais on leur a répondu que l’université, en théorie, ne participait pas à la recherche puisque Facebook recueillait et analysait toutes les données sur les utilisateurs, et que l’étude échappait par conséquent à l’obligation habituelle d’obtenir l’approbation du comité d’éthique en recherche. Comme la revue savante exigeait aux fins de publication une attestation de l’obtention d’un consentement éclairé des participants, Facebook a cité les modalités générales de sa politique d’utilisation comme attestation d’un consentement éclairé suffisant.

Certains ont salué la transparence de Facebook concernant une pratique ne présentant pas plus de risque que les entreprises n’en créent chaque jour en expérimentant des services commerciaux nouveaux ou améliorés. Ils craignent qu’un tollé de protestations et de critiques ne rende les entreprises comme Facebook moins enclines à collaborer avec les chercheurs universitaires. Si c’était le cas, leur transparence serait encore plus limitée et leurs données ne seraient plus accessibles pour faire progresser les connaissances du domaine public.

D’autres observateurs ne sont pas demeurés aussi affables et ont trouvé grossier le subterfuge utilisé afin de soustraire l’étude à l’examen du comité d’éthique en recherche. Ces observateurs très critiques à l’endroit de Facebook étaient scandalisés de voir que l’entreprise avait franchi sans scrupules la ligne entre l’observation et la manipulation. Certains se sont demandé si Facebook aurait bénéficié d’un examen éthique indépendant externe? Un comité d’éthique indépendant aurait-il pu aider à mieux prévoir les conséquences sociales de cette démarche qui, comme l’a exprimé un commentateur anglophone, a fait passer les gens « from the fishbowl to the petri dish » (de l’aquarium au laboratoire)?

Se portant à la défense de Facebook, le service de rencontres OKCupid a révélé ses propres expériences en ligne. Il y avait entre autres une étude réalisée par l’entreprise sur le « pouvoir de suggestion » en vue d’évaluer l’efficacité des « pourcentages de correspondance » qu’elle suggérait pour ce qui est d’influencer le comportement ultérieur des utilisateurs. Autrement dit, si l’entreprise affirme que deux personnes vont bien ensemble, se comporteront-elles comme si c’était le cas? Pour vérifier cette hypothèse, OKCupid a modifié ses algorithmes de manière à inverser les personnes bien ou mal assorties : elle a attribué un résultat de seulement 30 % à ceux qui avaient en réalité un pourcentage élevé (90 %) et inversement. L’entreprise a vérifié le nombre de courriels échangés par la suite sur son site Web pour déterminer si les utilisateurs entraient en relation avec des personnes avec lesquelles on leur avait dit qu’ils étaient bien assortis (même si ce n’était pas le cas) ou s’ils renonçaient à établir une relation avec des personnes avec lesquelles on leur avait dit qu’ils étaient mal assortis (alors que ce n’était pas le cas).

Le site de rencontres semble avoir fait complètement abstraction du risque de préjudice affectif pour les utilisateurs susceptibles d’agir en fonction d’une information erronée en acceptant de fréquenter des personnes qui ne correspondaient pas à leur profil ou, inversement, en passant à côté de leur âme sœur. Il n’a pas présenté d’excuses, faisant valoir que les internautes font l’objet de centaines d’expériences à tout moment sur tous les sites… et que c’est comme ça que les sites Web fonctionnent.

Ces deux exemples illustrent les cultures fondamentalement différentes de la recherche dans les secteurs public et privé — deux mondes différents qui se heurtent ou, pour reprendre les propos d’un blogueur de Tumblr, « deux cadres qui s’entrechoquent ». D’après ce blogueur, le risque manifeste dans tous ces cas est que ces nouveaux venus du numérique en réseau affaiblissent et contournent des conventions publiques obtenues de haute lutte et consacrées dans les lois, les règlements et les normes des communautés de pratique en utilisant un stratagème qui fait valoir que la « nouvelle technologie » signifie d’une façon ou d’une autre que les « anciennes règles ne s’appliquent plus ». Alors que certaines pratiques des entreprises du numérique suscitent un tollé de protestations, les chercheurs universitaires de renom bien intentionnés et altruistes qui souhaitent authentiquement établir des partenariats avec des entreprises du secteur privé pour accélérer la recherche dans l’intérêt public pourraient bien être mis dans le même panier s’ils n’exercent pas personnellement toute la diligence nécessaire.

Une grande expérience planétaire à l’enseigne des mégadonnées

Cette différence fondamentale entre les cultures universitaire et commerciale est exacerbée par l’essor des mégadonnées, qui a permis à la recherche d’atteindre une vitesse, une ampleur et une puissance de calcul sans précédent. D’une certaine façon, les mégadonnées ont fait du monde un immense champ d’expérience où nous sommes tous devenus involontairement des sujets humains. Et il y a des différences par rapport au type de recherche auquel vous êtes habitués.

Dans la sphère commerciale, les initiatives d’exploitation des mégadonnées ne sont pas assujetties aux mécanismes d’évaluation par les pairs classiques conçus pour vérifier la validité des hypothèses de départ et la rigueur des méthodes proposées. Contrairement au monde de la recherche scientifique, où l’humilité est de rigueur alors que les chercheurs sont mis sur la sellette par leurs pairs, qu’on rejette souvent leurs propositions et qu’on leur demande de refaire leurs devoirs, la sphère commerciale ne soumet pas les projets utilisant les mégadonnées aux mêmes épreuves. Revenons au projet de Google pour le suivi de la grippe dont je vous ai parlé plus tôt. Il a récemment fait l’objet de vives critiques dans un article publié dans la revue Nature et de commentaires subséquents dans Science. Ses détracteurs ont révélé certaines failles dans sa méthode a priori et parlé des affirmations énoncées comme un exemple de « l’arrogance des mégadonnées ».

Les chercheurs dont les travaux sont financés par des fonds publics doivent de plus en plus publier leurs données et faire connaître les retombées de leur recherche. Pour leur part, les organisations commerciales n’ont aucune obligation de publier ou de communiquer leurs algorithmes. En fait, ces algorithmes sont protégés au même titre que la formule ou les ingrédients secrets d’un produit commercial. Ils sont considérés comme de précieux secrets commerciaux et font partie de la propriété intellectuelle exclusive de leur propriétaire. De plus, comme l’a signalé l’article de la revue Nature, les failles des tendances de la grippe de Google sont en partie imputables aux algorithmes extrêmement complexes et dynamiques, que les ingénieurs de Google modifient constamment pour améliorer ses services commerciaux, ce qui fait qu’il est impossible pour les autres de voir et de suivre ces algorithmes et encore plus de les reproduire.

Enfin, et surtout, contrairement à la recherche scientifique financée par des fonds publics au Canada ou aux États-Unis, les initiatives commerciales portant sur les mégadonnées ne sont soumises à aucun examen éthique pesant les risques et les avantages en fonction des principes de base de respect des personnes, de souci de leur bien-être, d’impartialité et d’équité.

C’est pourquoi les commissaires à la protection de la vie privée du monde entier ont publié en octobre une résolution commune établissant des principes de base d’équité dans le traitement de l’information, et exigeant que soient évalués les profils et leurs algorithmes sous-jacents de façon continue. « Il faut pour cela effectuer régulièrement des vérifications afin d’établir si les résultats provenant des profils sont responsables, justes et éthiques, et s’ils correspondent bien et sont proportionnés aux fins auxquelles les profils sont utilisés [traduction]. »

Ce n’était pas moi : C’est la faute de la machine!

D’aucuns pourraient faire valoir que les nouvelles techniques ne sont pas des interventions humaines, mais des associations faites par la machine à partir d’algorithmes impersonnels qui ne voient pas qui nous sommes au niveau individuel — et qui, somme toute, s’en fichent complètement. À leur avis, ces algorithmes et procédés automatisés ne voient pas qui sont réellement les personnes et ces agents artificiels ne portent aucun jugement de valeur et fonctionnent sans intermédiaires humains.

Nous sommes nombreux à ne pas avoir oublié la façon dont Target a regroupé l’information sur les habitudes d’achat avec des données démographiques de base pour cibler les femmes susceptibles d’en être à leur deuxième trimestre de grossesse — apparemment une importante période de transition qui constitue une mine d’or pour les détaillants. L’intérêt pour les vêtements de maternité, les vitamines prénatales, les lotions pour la peau non parfumées, les boules d’ouate, les désinfectants pour les mains et les débarbouillettes aidait à détecter les clientes à qui Target voulait envoyer des publicités plus ciblées et personnalisées pour augmenter ainsi l’efficacité ultime de ses stratégies de marketing. Dans le monde des mégadonnées désordonnées, l’important n’était pas que les prédictions de Target soient tout le temps justes, mais bien qu’elles le soient la plupart du temps. En fait, la seule raison pour laquelle cette technique de marketing évolué a été dévoilée dans un article publié en 2012 dans le New York Times, c’est que Target « avait vu juste » avant même le père d’une adolescente. Et lorsque l’entreprise se trompe, il n’y a aucun interrupteur automatique pour fermer l’algorithme, comme l’ont récemment souligné des femmes qui se sont dites consternées d’être bombardées de publicités d’articles pour bébés quelques mois après avoir eu le malheur de faire une fausse couche.

Latanya Sweeney a mené en 2013 une étude sur la discrimination dans l’envoi des publicités en ligne. Cette professeure de l’Université Harvard a découvert un préjugé racial dans des publicités en lien avec certains termes de recherche utilisés dans Google et Reuters. En utilisant dans des recherches en ligne des prénoms associés à des personnes d’origine afro-américaine, par exemple DeShawn, Darnell et Jermaine, les chercheurs ont reçu une proportion plus élevée de publicités offrant des services de vérification du casier judiciaire qu’en utilisant des prénoms associés à des personnes d’origine caucasienne, par exemple Brad, Jill et Emma.

Certes, on peut affirmer que les machines ne portent pas de jugement de valeur, mais il faut bien un humain quelque part pour dire à la machine quoi faire, n’est-ce pas?

L’affirmation selon laquelle « c’est la faute de la machine » évoque de nouveaux écrits sur la notion de l’éthique de la robotique. Pouvons-nous enseigner aux robots à faire des choix éthiques? D’après une étude récemment menée sous la direction d’Alan Winfield au laboratoire de robotique de Bristol, au Royaume-Uni, nous n’en sommes pas encore là. Les chercheurs ont programmé un robot afin qu’il observe la première règle éthique des robots énoncée par Isaac Asimov, à savoir qu’« un robot ne peut porter atteinte à un être humain ni, restant passif, permettre qu’un être humain soit exposé au danger ». D’après leurs conclusions, lorsque le robot était en mesure de sauver un substitut humain, il l’a fait dans tous les cas. Toutefois, quand il se trouvait devant le dilemme éthique de sauver la vie d’un substitut humain sur deux, le robot n’en sauvait aucun dans plus de la moitié des cas. Il était paralysé par l’indécision, changeait constamment d’avis ou allait d’un substitut à l’autre. À terme, le robot finissait par manquer de temps et n’en sauvait aucun.

Conclusion

Du moins pour le moment, la prise de décisions éthiques demeure un domaine d’intervention humaine. Nous pouvons dire aux robots et aux machines quoi faire ou ne pas faire avec les données. Nous pouvons concevoir des algorithmes à des fins louables dans l’intérêt public où les avantages pour la société l’emportent sur les risques. Nous pouvons prévoir des exigences dès le début afin que les données soient utilisées uniquement à des fins justes et qu’il n’y ait aucune déduction discriminatoire au sujet de qui nous sommes. Nous pouvons éviter les façons non transparentes d’établir notre profil à notre insu.

Les universitaires ont beaucoup à gagner grâce aux approches novatrices du secteur privé qui peuvent les aider à accélérer leur recherche dans l’intérêt public. Mais à mon avis, et c’est l’idée que je souhaite vous transmettre, ils seraient bien avisés de faire preuve de diligence avant de choisir les entreprises avec lesquelles s’associer ou bien les possibilités de publicité ou de ciblage à exploiter.

À l’époque des mégadonnées et de toutes les belles promesses qu’elles font miroiter pour la société, il nous faut faire preuve dès le départ d’un esprit plus critique concernant le type de monde où nous voulons vivre — tant dans le milieu universitaire que dans la sphère commerciale — et nous assurer de concevoir des algorithmes et des programmes en conséquence.

 

Date de modification :