Protection de la vie privée en amont, discrimination en aval : les conséquences (non) intentionnelles de l’analyse des données

Allocution prononcée à la 18e Conférence annuelle Reboot sur la protection de la vie privée et la sécurité

Victoria (Colombie-Britannique)
Le 10 février 2017

Allocution de Patricia Kosseim, Avocate générale principale et directrice générale, Direction des services juridiques, des politiques, de la recherche et de l’analyse des technologies

(Le texte prononcé fait foi)


Introduction

Comme bon nombre d’entre vous le savent, le Commissariat à la protection de la vie privée du Canada a pour mission de protéger et de promouvoir le droit des personnes à la vie privée. En tant qu’autorité de protection des données, nous concentrons notre attention sur la collecte, l’utilisation et la communication de renseignements personnels en amont, tandis que les commissions des droits de la personne examinent généralement les effets discriminatoires de ces renseignements en aval. Par exemple, le Commissariat demande si les compagnies d’assurance ont vraiment besoin de recueillir des renseignements génétiques pour les besoins des calculs actuariels. Quant à nos collègues qui s’occupent des droits de la personne, ils peuvent intervenir lorsqu’une compagnie refuse de protéger un individu en invoquant ce type de renseignements.

La discrimination dépend souvent des renseignements personnels recueillis au sujet d’individus ou de groupes. C’est pourquoi nous devons mieux comprendre le lien entre les deux. La quantité de renseignements recueillis concernant tous les aspects de notre vie, tant par des humains que par des machines, atteint un niveau sans précédent. À vrai dire, malgré nous, nous sommes tous prisonniers de ce qu’un auteur a appelé la « traque numérique ».Note de bas de page 1  Nous devons examiner de plus près ce qui pourrait se produire – si ça n’arrive pas déjà. Le but est de travailler plus fort et plus intelligemment dès le début pour limiter la quantité de renseignements personnels recueillis et les façons dont ils sont utilisés en premier lieu.

C’est là que je vous propose d’aller aujourd’hui – au plus profond de l’univers ténébreux de la discrimination, afin de pouvoir retourner en arrière pour décortiquer le parcours et déterminer les meilleurs moyens de s’attaquer aux problèmes avant qu’ils ne se produisent.

Comment est-ce en aval?

Imaginez-vous à votre parc aquatique préféré. Vous descendez tranquillement une rivière calme et sinueuse. Étendu confortablement sur un canot pneumatique, vous relaxez en vous laissant entraîner par le faible courant. Les yeux fermés sous vos verres fumés, vous n’avez aucune idée de l’endroit où vous allez. Et vous êtes parfaitement inconscient du fait que vous êtes en train d’attraper un fameux coup de soleil!

En réalité, un nombre croissant d’études mettent en évidence les effets en aval pernicieux de l’analyse des données. Vous avez peut-être entendu parler des travaux de Latanya Sweeney, qui ont révélé un préjugé racial dans des publicités en lien avec certains termes de recherche utilisés dans Google. En faisant des recherches en ligne au moyen de prénoms associés à des personnes d’origine afro-américaine, par exemple DeShawn, Darnell et Jermaine, la chercheuse obtenait une proportion plus élevée de publicités offrant des services de vérification du casier judiciaire qu’en utilisant des prénoms associés à des personnes de race caucasienne, par exemple Brad, Jill et Emma. Nous ne savons pas vraiment si ce préjugé est attribuable à la race ou à la situation économique.Note de bas de page 2

Une étude de ProPublica a donné des résultats tout aussi troublants. Cette étude portait sur un logiciel utilisé partout aux États-Unis au moment de prendre les décisions sur la libération conditionnelle et la détermination de la peine. Il s’agit d’un logiciel qui prédit le risque de récidive criminelle. L’étude a révélé un fort préjugé racial qui désavantage les accusés noirs : ils sont deux fois plus susceptibles que les accusés blancs d’être considérés comme étant à risque de récidive.Note de bas de page 3

D’après certains, « c’est comme ça ». Google et Reuters n’avaient pas l’intention d’élaborer des algorithmes discriminatoires. La corrélation établie découle purement d’activités de recherche antérieures regroupées pour des millions, voire des milliards d’utilisateurs. Autrement dit, l’ordinateur est absolument indifférent à la race ou à tout autre facteur. Il ne fait que recracher les éléments qu’on lui a appris à rechercher. Dans le même ordre d’idées, le taux de récidive prévu semble en étroite corrélation avec l’emploi, le niveau de scolarité et le taux de criminalité dans le voisinage. Certains groupes sont généralement moins bien cotés que d’autres sur ce plan. 

Mais cet argument ne tient pas la route à plusieurs points de vue. Premièrement, il fait abstraction du rôle que jouent les algorithmes en perpétuant, voire en aggravant les effets discriminatoires. Deuxièmement, il fait aussi abstraction du rôle crucial que jouent les humains dans la conception de ces algorithmes, puis dans l’interprétation et l’application de leurs résultats. Et troisièmement, il est pratiquement impossible de vérifier l’affirmation selon laquelle les algorithmes sont forcément neutres et sans opinion. En fait, ils sont tellement opaques et protégés dans le plus grand secret que personne de l’extérieur ne peut les voir. Frank Pasquale soulève ce point dans son ouvrage intitulé The Black Box Society.Note de bas de page 4

Cathy O’Neil est une spécialiste de la science des données et titulaire d’un doctorat de Harvard. Blasée par son travail dans l’industrie des finances, elle appuie aussi ces contre-arguments dans son ouvrage qui porte un titre très à propos, soit Weapons of Math Destruction, autrement dit « Armes de destruction matheuses » en français.

Mme O’Neil cite plusieurs exemples. Entre autres, elle attire l’attention sur les logiciels de prédiction de la criminalité utilisés par les services de police à court de ressources financières partout aux États-Unis pour déterminer les quartiers où envoyer leurs voitures de patrouille – dont le nombre est limité – afin de maximiser leur efficience. Ces modèles sont conçus pour analyser les tendances historiques de la criminalité afin de prédire où l’activité criminelle est la plus susceptible de survenir prochainement.Note de bas de page 5

Mais les concepteurs de ces logiciels ont un choix. Ils peuvent inclure dans leur modèle les crimes graves – homicides, voies de fait, vols avec effraction et vols d’automobile. Ils peuvent aussi y inclure la petite délinquance et les nuisances comme le vagabondage et la mendicité, ce qui fait grimper les statistiques se rapportant à certains quartiers défavorisés. Ainsi, les forces policières y envoient inévitablement davantage de voitures de patrouille et leur présence y est excessive. Les policiers essaient d’éradiquer les problèmes en adoptant un état d’esprit fondé sur la tolérance zéro.Note de bas de page 6

Le modèle ne visait pas à cibler la race. Mais les facteurs retenus se trouvent à être des indicateurs très proches, ce qui crée une boucle de rétroaction discriminatoire. De plus, en mettant l’accent sur les modèles qui prédisent les crimes de rue, les forces policières choisissent forcément de consacrer moins de ressources à la lutte contre la criminalité en col blanc, par exemple dans l’industrie financière. Cathy O’Neil demande si, en tant que société, nous sommes prêts à sacrifier un peu d’efficience par souci d’équité. Devrions-nous altérer les modèles en laissant de côté certaines données?Note de bas de page 7

Il y a une possibilité de discrimination également dans le secteur à but lucratif. On y voit bien des exemples de processus décisionnels automatisés susceptibles d’entraîner une discrimination, par exemple quand il s’agit de décider à qui prêter de l’argent, qui assurer, qui embaucher ou qui accepter dans un collège.

Mme O’Neil braque les projecteurs sur les universités à but lucratif qui utilisent des données concernant les plus vulnérables de la société pour créer des listes de clients potentiels. Il se trouve que les plus vulnérables sont aussi les plus rentables. Des personnes qui cherchent désespérément à entrer à l’université pour améliorer leur sort se donnent beaucoup de mal pour obtenir un prêt d’études du gouvernement. Dans cette optique, certaines universités à but lucratif utilisent des algorithmes et l’analyse de données pour segmenter leur marché et mener des campagnes de publicité ciblées. En utilisant des termes comme « mère assistée sociale », « divorce, incarcération ou décès récent », « faible estime de soi », « désintoxication », « emplois sans avenir » ou « aucun avenir », elles se comportent comme des prédateurs. Et c’est exactement ce que cherchent les modèles informatiques qu’elles utilisent.Note de bas de page 8

Mais, là aussi, il faut trouver un équilibre entre l’équité et l’efficience, et faire des choix quant à savoir quelles données recueillir ou simplement laisser de côté. Prenez l’économie de partage émergente. Dans les premiers jours des marchés en ligne, les vendeurs pouvaient difficilement faire de la discrimination compte tenu de l’anonymat des parties à une transaction liée à un service. À l’époque, il semblait que l’économie de partage permettrait de mettre fin à la discrimination souvent observée dans les transactions en personne. Mais les plateformes ont alors commencé à exiger des renseignements comme le nom et la photo. Elles ont ainsi laissé ouverte la possibilité de réintroduire les préjugés raciaux dans le marché en ligne.

Des chercheurs de l’École de commerce de Harvard ont obtenu des résultats semblables à ceux de Mme Sweeney. Ils ont constaté que les demandes d’Airbnb présentées par des personnes ayant un nom à consonance noire avaient 16 % moins de chances d’être acceptées que celles de personnes ayant un nom à consonance blanche. Le fait est que les plateformes de partage font des choix au moment de la conception. Les responsables peuvent choisir de ne pas demander le nom de famille ou la photo. Ou bien, s’ils demandent cette information, ils peuvent le faire uniquement après que les autres éléments clés de la transaction – par exemple le prix et la disponibilité – ont été convenus.Note de bas de page 9

C’est un peu ce qui s’est passé dans le cas des orchestres symphoniques américains dans les années 1970 et 1980, qui ont « concerté » leurs efforts (sans jeu de mot!) pour accroître la diversité en faisant auditionner les musiciens derrière un rideau. Ce changement a réduit la quantité d’information dont disposaient les chefs d’orchestre au départ (par exemple les caractéristiques physiques). Le taux de succès des musiciennes a alors fait un bond de 160 %.Note de bas de page 10

Changement de cap : retour en amont

Maintenant que nous connaissons la situation en aval, retournons en amont pour voir comment nous pourrions rectifier le tir dès le début.

Cette fois, modifions notre petite expérience de réflexion. Nous ne nous laissons plus porter nonchalamment sur un canot pneumatique au parc aquatique en descendant tranquillement la rivière. Nous sommes sur le point de traverser l’Atlantique à la voile, des Îles Canarie aux Antilles. C’est le trajet que Christophe Colomb a emprunté il y a bien longtemps et que ma sœur et mon beau-frère viennent tout juste de parcourir à bord de leur voilier de 46 pi.

Pendant 19 jours, j’ai suivi leur parcours. J’étais avide de lire leur journal de bord quotidien pour avoir des nouvelles. Je priais pour qu’ils arrivent sains et saufs à la terre ferme. Ce n’était pas une promenade sur une rivière calme! Faire passer le génois à tribord, affaler la grand-voile au vent, réduire la voile sous le vent… et ainsi de suite. Ils employaient des termes techniques que je comprenais à peine. Ma sœur et mon beau-frère se sont partagé la garde de jour et de nuit. Ils sont restés vigilants tout au long du parcours. Ils ajustaient constamment leurs voiles et choisissaient ou modifiaient le cap en fonction des conditions météo, des courants et de la vitesse et de la direction du vent.

Comment pouvons-nous commencer à neutraliser les effets nocifs de la discrimination en aval et travailler d’arrache-pied de façon proactive pour y remédier, voire pour les éviter tout à fait? Afin de réduire leurs effets nuisibles, comment pouvons-nous établir des règles concernant les données que nous entrons dans les algorithmes; les algorithmes que nous concevons pour interpréter ces données; et les décisions que nous prenons en tant que société à partir des résultats obtenus?

Partout dans le monde, des intervenants se posent ces questions au moment où nous prenons conscience que les lois sur la protection des renseignements personnels seules peuvent être des instruments trop rudimentaires et limités. De plus en plus, on a l’impression que nous devons élaborer des cadres éthiques rigoureux et miser sur notre réflexion interdisciplinaire la plus sérieuse pour combler les lacunes, pour ainsi dire, et pour aider à orienter des décisions complexes fondées sur des jugements de valeur à un niveau plus détaillé. 

Par exemple, au cours de la Conférence internationale des commissaires à la protection des données et de la vie privée de 2014, les participants ont adopté à l’unanimité une résolution exhortant toutes les parties à faire la preuve que les décisions fondées sur les mégadonnées, y compris les résultats du profilage, sont équitables, transparentes, responsables et… éthiques.Note de bas de page 11

En 2015, le contrôleur européen de la protection des données a publié un avis sur l’éthique numérique. Cet avis souligne la nécessité d’examiner la dimension éthique du traitement des données et d’étudier d’autres questions plus profondes concernant les répercussions sur la dignité humaine, la liberté individuelle et le fonctionnement de la démocratie.Note de bas de page 12

Et, dans son rapport de 2016 sur les risques mondiaux, le Forum économique mondial laisse entendre que les cadres et les normes éthiques doivent orienter l’innovation technologique pour nous permettre de suivre le rythme de la quatrième révolution industrielle.Note de bas de page 13

Bien des intervenants du monde des affaires, du milieu universitaire et du milieu scientifique ont commencé à répondre à cet appel. Pour les besoins de mon allocution, j’ai regroupé leurs réponses en quatre catégories : éthique organisationnelle, éthique de la robotique, éthique des concepteurs et éthique intégrée.

Éthique organisationnelle

De nombreux intervenants préconisent activement des cadres éthiques pour aider à orienter dès le début le processus organisationnel de prise de décisions. Avant de déployer des initiatives sur les mégadonnées et les appareils connectés au nouvel Internet des objets, par exemple, certains proposent aux entreprises divers moyens d’élargir leurs perspectives des préjudices et avantages potentiels au-delà du résultat net.

Des groupes de revendication et de réflexion internationaux ont demandé à leurs membres les plus brillants de se pencher sur la question.

L’Information Accountability Foundation a proposé d’adopter un cadre éthique intégré pour permettre aux organisations de trouver plus systématiquement et plus efficacement un équilibre entre toute la gamme des intérêts des individus, de la société et des entreprises lorsqu’elles évaluent une utilisation proposée de mégadonnées en fonction de certaines valeurs de base.Note de bas de page 14

Le Centre for Information Policy Leadership a proposé la notion d’un renforcement de la reddition de comptes par les organisations pour évaluer la pertinence du traitement des données en fonction de l’équité et d’un cadre éthique. Il s’agit de prendre en compte les risques de préjudice pour les individus et les avantages pour l’organisation, les individus et la société dans son ensemble.Note de bas de page 15

Des chercheurs associés au Future of Privacy Forum ont suggéré de créer des comités d’éthique pour protéger les consommateurs. Ils prônent des comités s’inspirant des comités d’éthique de la recherche en milieu universitaire. Ce serait selon eux un moyen de mettre fin à l’asymétrie entre les individus et les grandes entreprises et d’examiner systématiquement les utilisations des données proposées du point de vue du consommateur.Note de bas de page 16

Toutes ces initiatives ont un point en commun : ce sont des moyens pour les organisations – à l’interne ou à l’externe – de prendre de meilleures décisions en renforçant leurs visées lucratives tout en examinant plus en profondeur les préjudices et avantages potentiels selon plusieurs points de vue différents du leur.

Éthique de la robotique

Une autre proposition – qui se démarque un peu – consiste à télécharger sur des ordinateurs non seulement les travaux d’analyse qu’ils peuvent faire beaucoup plus efficacement que les humains, mais aussi les processus décisionnels éthiques qui les accompagnent.

Pouvons-nous enseigner aux robots à faire des choix éthiques?

Selon une recherche menée au Royaume-Uni, nous n’en sommes pas encore là. Les chercheurs ont programmé un robot afin qu’il observe la première loi éthique s’appliquant aux robots énoncée par Asimov. Selon cette loi, un robot ne peut porter atteinte à un être humain ni le laisser exposé au danger. Lorsque le robot était en mesure de sauver un substitut humain, il l’a fait dans tous les cas. Mais quand il se trouvait devant le dilemme du tramway – le dilemme éthique de sauver un substitut humain mais non l’autre – le robot n’en sauvait aucun dans près de la moitié des cas. Il était paralysé par l’indécision et changeait constamment d’avis ou allait d’un substitut à l’autre.Note de bas de page 17

Quelque part, dans les laboratoires de robotique partout dans le monde, des chercheurs s’efforcent de parachever cette expérience et de renforcer la capacité des robots à faire des choix éthiques. Mais, avant même d’y parvenir, il est possible qu’ils doivent reprogrammer leur robot pour prendre en compte de nouvelles lois, que certains ont suggéré d’ajouter aux trois premières lois énoncées par Asimov :

  1. Un robot ne peut porter atteinte à un être humain.
  2. Un robot doit obéir aux ordres donnés par un être humain.
  3. Un robot doit protéger son existence dans la mesure où cette protection n’entre pas en contradiction avec la première ou la deuxième loi.

Selon Marc Rotenberg, de l’Electronic Privacy Information Centre :

  1. Un robot doit toujours révéler le fondement de sa décision (c’est le concept de la « transparence algorithmique »).
  2. Un robot doit toujours révéler son identité réelle (par exemple l’humain, l’organisation ou l’État à l’origine de l’utilisation d’un drone).Note de bas de page 18

Éthique des concepteurs

Un troisième groupe de propositions – de nature plus technique – vise à intégrer des valeurs et des principes éthiques à la conception même du système. 

Par exemple, l’Institute of Electrical and Electronics Engineers a récemment proposé une ébauche de principes d’éthique pour orienter la conception et le développement de systèmes d’intelligence artificielle et de systèmes autonomes. Ces propositions visent à consacrer les plus grands idéaux des droits de la personne, à privilégier l’avantage maximal pour l’humanité et à atténuer les risques et les effets négatifs. Cette organisation a formulé plusieurs recommandations à l’intention des membres de la communauté technique pour les aider à intégrer ces valeurs dans leurs systèmes, orienter leurs méthodes de recherche, maximiser la reddition de comptes et la transparence, et mettre fin à l’asymétrie des données qui existe entre l’individu et le système.Note de bas de page 19

Fisman et Luca ont publié dans le Harvard Business Review un article intitulé « Fixing Discrimination in Online Marketplaces ». Ils y énumèrent plusieurs caractéristiques concrètes que l’on peut intégrer à la conception des plateformes en ligne pour éviter ou à tout le moins réduire la discrimination éventuelle.Note de bas de page 20

Une situation qui s’est présentée la semaine dernière nous donne un bon exemple de cette liberté d’action. Facebook a annoncé trois changements à la conception de sa plateforme en réaction à une autre étude de ProPublica, qui a révélé l’an dernier certaines choses pas très jolies.Note de bas de page 21 Facebook :

a adopté une politique explicite contre la discrimination et elle obligera les annonceurs à confirmer expressément qu’ils y adhèrent avant d’afficher des annonces sur son réseau publicitaire.

Facebook interdit aux entreprises qui font de la publicité concernant le logement, l’emploi ou le crédit d’utiliser des outils de sélection des destinataires reposant sur certaines caractéristiques personnelles.

Et, avec l’apprentissage automatique que Facebook espère perfectionner au fil du temps, l’entreprise commencera à détecter et à retirer automatiquement les publicités contrevenant à ses politiques.Note de bas de page 22

Éthique intégrée

Ensuite, il y a ceux qui prônent une approche interdisciplinaire plus large et plus intégrée pour régler les problèmes éthiques, juridiques et sociaux liés aux algorithmes. C’est ce que nous avons fait dans les années 1980 au début du Projet de cartographie du génome humain. Le génome était extrêmement prometteur, mais il pouvait avoir des effets inconnus. Il suscitait à la fois de l’enthousiasme et de grandes inquiétudes.

James Watson a été le premier directeur de l’Institut de recherche sur le génome humain des National Institutes of Health. Il a annoncé qu’un certain pourcentage des fonds de recherche serait dorénavant affecté à l’étude des effets éthiques, juridiques et sociaux du génome humain. En anglais, on parle de la « recherche ELSI ». Cette démarche a donné naissance à une toute nouvelle génération de programmes similaires au Royaume-Uni et au Canada – à mesure que les bailleurs de fonds de la recherche ont pris conscience qu’une démarche scientifique rigoureuse doit être non seulement fiable sur le plan technique, mais aussi socialement acceptable.

La quête du génome humain a commencé à être placée dans un nouveau contexte dans la société en général et elle est devenue mieux ancrée dans ce que nous acceptons collectivement comme étant juste et équitable. Il doit en aller de même pour l’avenir de la révolution numérique. Les informaticiens, tout comme les chercheurs en génomique, doivent travailler en tandem avec leurs collègues des sciences humaines. C’est avec les spécialistes du droit, de la philosophie, de la sociologie, de l’anthropologie et d’autres domaines qu’ils doivent prévoir les effets généraux que leurs travaux auront en aval sur la société et y remédier.

Kate Crawford, chercheuse invitée au MIT, et Ryan Calo, de l’Université de Washington, proposent une approche fondée sur les systèmes sociaux dans le domaine de l’intelligence artificielle – une approche plus proactive que les corrections techniques après coup et plus large que la prise de décisions concernant la façon de procéder. L’approche proposée repose sur une analyse multidisciplinaire et multidimensionnelle à toutes les étapes du processus d’innovation – la conception, le déploiement et la réglementation de l’intelligence artificielle. Le but est d’avoir une connaissance plus globale des effets éventuels des systèmes d’intelligence artificielle sur la société et d’évaluer d’un œil critique leurs avantages nets avant même qu’on les ait adoptés.Note de bas de page 23

Conclusion

Bien des gens pensent que le Canada a le potentiel voulu pour devenir un chef de file mondial dans le domaine de l’intelligence artificielle. Je songe, par exemple, à Steven Irvine, ex-dirigeant de Facebook qui est récemment revenu au Canada pour lancer une nouvelle entreprise d’intelligence artificielle. D’après lui, nous avons les poids lourds universitaires, les entrepreneurs de talent et les solides chefs d’entreprise voulus pour y arriver. Le positionnement du Canada en tant que chef de file de l’intelligence artificielle pourrait générer des avantages considérables pour le pays sur le plan économique. Selon les prévisions de certains observateurs, l’intelligence artificielle pourrait accroître de 17,5 milliards de dollars notre produit intérieur brut annuel et créer 170 000 nouveaux emplois d’ici 2025.Note de bas de page 24

Mais cette possibilité n’est pas sans risques.

Le futurologue Yuval Harari imagine un avenir pas très lointain remettant en question notre vision du monde centrée sur l’homme en faveur d’une vision centrée sur les données. Il entrevoit une montée du règne des données, où le pouvoir passera des humains aux algorithmes et où les ingénieurs en seront réduits à se concentrer sur les puces, puis sur les données, à mesure que nous nous approcherons du jour où l’Internet de tous les objets bouleversera le plan d’action fondé sur l’élément humain. Harari demande ce qu’il adviendra de la société, de la politique et de la vie quotidienne lorsque des algorithmes non conscients, mais très intelligents, nous connaîtront mieux que nous nous connaîtrons nous-mêmes.Note de bas de page 25

Si l’avenir prédit par Harari n’est pas assez plausible à votre goût, pensez au nouvel outil de notation du crédit social que la Chine espère lancer d’ici 2020. Le but est de créer un système de « crédit social » qui monterait un dossier numérique sur le comportement de chaque citoyen à partir de tous les éléments d’information, par exemple la tricherie sur les titres de transport et les traversées illégales de la chaussée, l’activité sur Internet et les contraventions aux règles de planification familiale. Ce système d’envergure nationale attribuerait aux individus une cote globale déterminant les services auxquels ils auraient droit et les listes noires sur lesquelles ils figureraient. Si l’expérience était fructueuse, l’État déterminerait la valeur des individus pour la société à l’aide d’algorithmes. Ces algorithmes, selon ce que l’on prétend, connaîtraient mieux les individus qu’eux-mêmes; mais aussi ils leur attribueraient une cote morale par rapport à leurs concitoyens.Note de bas de page 26

Cette question centrale du rôle d’une intervention humaine dans un monde axé sur la technologie se trouve au cœur de nos travaux sur la priorité stratégique de l’économie des renseignements personnels. Il y a environ un an, le Commissariat a publié un document de consultation sur le rôle que joue le consentement dans l’accroissement du contrôle exercé par les Canadiens sur leurs renseignements personnels et le renforcement de leur confiance dans l’économie numérique. 

Nous avons reçu 51 mémoires et tenu des réunions avec les intervenants dans cinq grandes villes. Et, cette semaine, notre commissaire est sur la route. Il tâte le pouls des Canadiens participant aux discussions de groupe partout au pays. Tout cela en vue de publier une position de principe au milieu de 2017.

À bien y penser, c’est une tâche colossale. Nous en sommes ici à tracer le parcours à emprunter pour renforcer le contrôle exercé par les individus alors que la technologie, comme un très fort courant, nous pousse dans la direction opposée.

Le processus de consentement que nous connaissons à l’heure actuelle repose sur d’énormes quantités de pages de jargon juridique que personne ne lit. On pourrait peut-être lui donner tout son sens grâce à des moyens législatifs, stratégiques et technologiques créatifs. La société acceptera peut-être d’autres mécanismes de protection dans certaines situations et à certaines conditions lorsqu’il est irréaliste d’obtenir autrement le consentement individuel. Quelle forme cette autre protection devrait-elle prendre? Quel rôle les différents acteurs devraient-ils y jouer? Je songe ici aux individus, aux organisations, aux organismes de réglementation et aux législateurs. Au cours des prochains mois, nos réflexions porteront sur ces questions. 

Nous devons aborder ces questions de front. Il ne faut certainement pas faire preuve de complaisance à ce sujet. Mais nous ne réglerons pas ces problèmes en nous limitant au moment présent. Nous devons y faire face avec courage dans une prospective stratégique en nous imaginant et en nous transposant dans un avenir plausible. Et en retournant en arrière à partir de là afin de pouvoir tirer parti des possibilités formidables et éviter les préjudices éventuels.

En conclusion, nous ne pouvons pas simplement nous laisser aller sur notre canot pneumatique, les yeux fermés, en descendant une rivière calme pour aboutir là où les courants du marché et de la technologie nous amèneront. Comme les premiers explorateurs, nous devons être des navigateurs dynamiques. Nous devons choisir notre cap, ajuster les voiles, nous adapter aux vents changeants, corriger notre plan de route, prévoir le mauvais temps – et éviter les secteurs où il y a des pirates – alors que nous entrons dans un vaste territoire inconnu.

Date de modification :