Connexion, protection de la vie privée et espace public : Approche à l'égard d'une taxonomie

Adam Greenfield
Urbanscale

Ce document a été commandé par le Commissariat à la protection de la vie privée du Canada dans le cadre de la série de conférences Le point sur la vie privée

Juillet 2011

Avis de non-responsabilité : Les opinions exprimées dans ce document sont celles de l'auteur. Elles ne reflètent pas nécessairement celles du Commissariat à la protection de la vie privée du Canada.

Vidéo connexe : Le point sur la vie privée - Adam Greenfield et Aza Raskin


Je m’appelle Adam Greenfield et je suis le fondateur et le directeur général d’un cabinet de New York appelé Urbanscale, qui a pour mandat de concevoir des systèmes, des services et des interfaces pour des villes et des citoyens réseautés.

Notre travail est axé sur la conviction selon laquelle la vie urbaine de tous les jours peut être améliorée pour tous les résidents et autres utilisateurs d’une ville au moyen de la mise en place, de façon consciente et attentive, de technologies réseautées de collecte, de traitement et de diffusion de renseignements et de la conception aussi réfléchie d’interfaces connexes. Comme nous sommes évidemment grandement attachés à l’aspect de ces technologies la plupart du temps opaques dans l’espace public, nous croyons qu’il nous incombe de faire montre de clarté sur ce qui suit :

  • les avantages que ces technologies offrent selon nous;
  • les coûts que nous croyons que ces technologies peuvent entraîner à court terme et pendant de plus longues périodes d’expérience collective;

et spécialement,

  • les situations dans lesquelles nous considérons que la mise en place de technologies informatiques n’avantage pas le public ou, pis encore, mine activement la qualité de vie urbaine, l’autonomie des citoyens ou la capacité de ces derniers de se déplacer et d’agir librement dans l’espace urbain.

Par conséquent, j’entends mieux saisir la façon dont des ensembles donnés de technologies de détection, d’affichage et d’activation influent sur ce que le sociologue Henri Lefebvre a qualifié de « droit à la ville », qui, selon moi, constitue la capacité d’agir des citoyens et, de façon également importante, la perception de leur propre capacité d’agir à l’endroit où ils vivent. Je suis d’avis que la complexité de cette notion est telle que des principes abstraits et de prétendues « pratiques exemplaires » ne sont pas particulièrement susceptibles de nous orienter afin de prendre de meilleures décisions, à moins qu’ils ne soient fermement ancrés dans un examen concret de certaines des réalités actuelles. Afin de réfléchir moi‑même plus clairement à ces questions, j’ai créé une taxonomie de mécanismes de collecte de données dans l’espace public, et c’est ce que j’aimerais partager avec vous ici.

Pour clarifier davantage les questions en jeu, j’ai organisé ces systèmes selon un spectre allant d’un capteur qui, selon moi, est en soi évidemment non menaçant à un service qui devrait préoccuper grandement le milieu de la protection de la vie privée en particulier – et les défenseurs d’un espace public de grande qualité en général.

1. Acceptable à première vue

Le premier système que je souhaite aborder est le capteur de circulation appelé Välkky, conçu par l’entreprise finlandaise Havainne. Même s’il peut être mis en place partout sur la planète, Välkky correspond clairement aux caractéristiques de la nuit finlandaise et des conditions du transport routier qui semblent prévaloir au cours de journées de longue noirceur. Conçu pour être fixé aux panneaux routiers existants, le système combine une grille de détecteurs de mouvement réseautés localement à un ensemble de diodes électroluminescentes bleues et blanches de très grande intensité; en le plaçant convenablement à un passage pour piétons ou à une intersection, il avertit les automobilistes de la présence de piétons et de cyclistes qui, autrement, ne pourraient être vus.

Examinons ce système :

  • Le capteur de mouvement Välkky enregistre l’activité physique dans l’entourage immédiat. Une personne arrive à proximité d’un passage pour piétons et l’ensemble de diodes électroluminescentes correspondantes s’illumine.
  • La source du stimulus qui active le capteur n’est pas mesurée par un autre capteur ni caractérisée d’une autre façon par le système. Le capteur Välkky ne tente pas de quantifier, de déterminer ou d’amplifier sa perception de la personne ou de toute autre entité l’activant (et, de toute façon, il n’est pas équipé pour le faire). Il pourrait être activé par un renne, et personne ne le saurait.
  • Les renseignements recueillis ne sont pas emmagasinés et ils ne subsistent pas. La réaction de Välkky à l’activation et à la désactivation est immédiate; pour autant que je puisse en juger à la lumière de la documentation technique de Havainne, aucun dossier sur l’activation du système au fil du temps n’est tenu, même si cela serait certainement assez simple à effectuer. En effet, toute connaissance d’un événement activant le capteur disparaît aussitôt que la valeur enregistrée par le capteur se retrouve en deçà du seuil programmé afin de reconnaître la présence d’un piéton.
  • Les renseignements recueillis ne sont pas transmis à distance. Tous les capteurs Välkky placés à une intersection donnée sont liés grâce à un réseau de transmission radio de faible portée afin de veiller à ce qu’une seule activation déclenche l’ensemble des diodes électroluminescentes locales, mais aucun d’entre eux n’est relié au réseau IP (protocole Internet) global. Parmi les répercussions que cela entraîne, il y a le fait qu’aucun autre système n’a accès à une unité Välkky ou aux tendances que le capteur est capable d’enregistrer.
  • Aucune analyse de l’activation des capteurs n’est effectuée. Le capteur Välkky ne tente pas d’élaborer un modèle du monde plus compliqué que l’équation extrêmement simple suivante : piéton = lumière clignotante. Aucune déduction de haut niveau ayant des répercussions politiques et économiques ou autres ne peut être tirée par la présence et l’utilisation du capteur.
  • Même si le fabricant Havainne a indiqué clairement qu’il souhaitait améliorer la valeur (perçue) de son produit – et rendre ainsi vains mes propos – en annulant certaines des mesures présentées ci‑dessus, il s’agit des faits actuels de l’installation de base des capteurs Välkky. Et il existe un dernier fait très pertinent sur Välkky qui nous aide à placer ce système à une des extrémités de notre spectre de préoccupations :
  • Il existe un bien public clair et incontestable directement lié à la présence de ce mécanisme de collecte de données.

En d’autres mots, même si rien n’empêche un tiers suffisamment sceptique de remettre en question le rendement de l’investissement que présente la mise en place de capteurs Välkky, on peut clairement faire valoir que cela contribue à la santé et à la sécurité du public. Havainne affirme que la vitesse de conduite aux intersections où le système Välkky a été installé a diminué de 4 ou 5 %, la valeur supérieure de cette affirmation ayant été corroborée par des tests précédents, le nombre de décès a diminué de 20 % et le nombre d’accidents de la route entraînant des blessures graves a connu une baisse de 10 %.

Ces faits permettent d’établir quelques paramètres de base relativement au rendement de systèmes de collecte de renseignements dans l’espace public et nous fournissent un ensemble de desiderata en ce qui concerne leur conception responsable sur le plan éthique. J’avance qu’un système dont la collecte de renseignements a un effet strictement local et immédiat, qui contribue quelque peu au bien public et dont les renseignements qu’il recueille sont immédiatement expirés et supprimés ne doit pas être une importante préoccupation pour nous ici. Cela ne signifie pas que tous les systèmes semblables sont nécessairement inoffensifs : il serait relativement aisé de concevoir un système qui correspondrait à tous ces critères, mais qui influerait néanmoins de façon négative sur l’environnement; cependant, on peut au moins considérer que ces systèmes ne portent pas atteinte à la protection de la vie privée.

Toutefois, pour ce qui est du système Välkky, il devient beaucoup plus difficile de défendre le droit des systèmes de recueillir des renseignements dans l’espace public, du moins en tant que catégories plutôt que de situations données.

2. Sans danger, mais possédant une capacité sous-jacente de collecte de données

Un cas transitoire se présente sous la forme d’une annonce interactive d’Amnistie Internationale, laquelle a été conçue en 2009 par l’agence Jung von Matt de Hambourg et n’a apparemment été affichée que dans un seul abribus de Berlin. L’annonce présentait l’image d’un jeune couple – qui, selon les apparences, était en amour et heureux – affichée sur un écran vidéo auquel était intégré de façon imperceptible un oculomètre. Ce dernier était dirigé vers les personnes attendant dans l’abri; tant et aussi longtemps que quelqu’un regardait l’écran, le couple gardait la pose, mais quand l’oculomètre indiquait que personne ne prêtait attention à l’écran, l’image se transformait lentement : l’homme battait maintenant la femme, recroquevillée. (Évidemment, cette image était immédiatement remplacée par celle du couple heureux aussitôt que l’oculomètre reconnaissait que quelqu’un prêtait attention à l’annonce.)

Cette annonce a sans aucun doute réussi à transmettre le message selon lequel la violence conjugale survient quand personne d’autre ne regarde et, en effet, elle a gagné un Lion d’argent à Cannes en 2009. Il est donc tentant de conclure que cette méthode de collecte de données ne devrait pas non plus soulever de préoccupations. Même lorsque nous considérons l’annonce d’Amnistie Internationale en fonction des critères que nous avons établis pour Välkky, au premier coup d’œil les deux systèmes semblent avoir beaucoup de points en commun : les deux recueillent localement des données pour produire un effet local et les données ne sont pas conservées, transmises à un autre système ni utilisées pour créer un modèle potentiellement problématique de prévision du comportement.

Cependant, selon moi du moins, il y a une importante différence entre les deux. Contrairement à Välkky, la collecte de données effectuée dans le cadre de l’annonce n’entraîne aucun avantage direct pour le public. En effet, on peut sans aucun doute affirmer que la cause défendue par l’annonce est bien sur le plan moral, mais le contexte est néanmoins celui de la publicité. Si l’on remplace le contenu de l’annonce d’Amnistie Internationale par un sujet moins susceptible d’imposer un semblant de respectabilité au moyen d’un message bénéfique sur le plan social, on peut voir plus clairement l’état réel de la situation.

3. Légèrement dérangeant et irrespectueux

Ici, les frontières deviennent de plus en plus floues. Le prochain mécanisme de collecte de renseignements apparaissant dans notre spectre de préoccupations est en soi une préoccupation : il s’agit d’une annonce de Nikon affichée en 2010 dans les corridors de la station Sindorim du métro de Séoul. Cette annonce, conçue par l’agence Cheil Worldwide, combinait un tapis rouge réel et une image, intégrée dans un caisson lumineux adjacent, d’un groupe de paparazzis (utilisant des appareils photo Nikon, naturellement). Le tapis recélait un capteur de mouvement qui, lorsque actionné, « alertait » les paparazzis, et le flash de toutes leurs caméras s’illuminait silencieusement.

Les paramètres de la collecte de renseignements sont identiques à ceux de l’annonce d’Amnistie Internationale : un capteur enregistre la présence de passants et active une réaction locale, et aucun dossier n’est tenu, emmagasiné ni transmis. Cependant, quand le contenu n’est même pas un tant soit peu justifiable, l’effet négatif de l’annonce sur la qualité de l’espace public devient plus clair. Même si l’annonce, de façon ostensible selon l’agence de publicité, permettait aux gens de se sentir comme des vedettes déambulant sur un tapis rouge pour se rendre à une remise de prix luxueuse, les documents contemporains laissent clairement entendre que les passants étaient en fait davantage perplexes, voire presque consternés. Logiquement, nous pouvons présumer que le fait de voir nos pensées interrompues par une myriade de flashs d’appareils photo n’est pas très plaisant.

Cependant, pour être honnête, c’est le pire que l’on puisse dire de cette annonce. Même si, personnellement, je n’apprécie pas l’expérience qu’elle me fait vivre, il est possible qu’elle ne viole pas les normes communautaires à un point tel qu’il faille la réglementer. Et, comme c’était le cas des exemples précédents, le danger potentiel d’atteinte à la protection de la vie privée est éliminé par le fait que l’annonce n’a qu’un effet local et qu’elle est incapable d’entreposer ou d’utiliser les renseignements qu’elle permet de recueillir.

4. Prédictif et normatif de façon problématique

Cependant, cela ne peut être dit de l’exemple suivant : la machine distributrice Acure, conçue par la designer industrielle Fumie Shibata pour JR East. En apparence, la machine distributrice Acure semble n’être qu’une mise à jour ingénieuse, à l’ère numérique, de la machine distributrice de boissons traditionnelle; sur le devant de la machine figure un écran tactile illuminé et attrayant de 47 pouces affichant en haute résolution les produits offerts ainsi qu’une variété d’animations visant à attirer la clientèle et correspondant à la saison, à la température ambiante et à l’heure de la journée.

Cependant, le fonctionnement de cette machine est encore plus ingénieux, ce qui est davantage problématique; en effet, comme c’était le cas de l’annonce d’Amnistie Internationale, tandis que vous regardez la machine distributrice Acure, elle vous observe également. Toutefois, la caméra utilisée pour l’annonce d’Amnistie Internationale visait à déterminer si quelqu’un y prêtait attention sans chercher à identifier les caractéristiques individuelles, tandis que la machine distributrice Acure veut connaître certaines choses précises sur vous, soit votre âge et votre sexe. Elle utilise ces faits non seulement pour prédire le type de boissons qui intéresse les personnes d’un profil démographique donné, boissons qui seront ensuite affichées sur l’écran, mais également pour personnaliser certains aspects de l’affichage et préciser le modèle démographique maintenu dans le serveur central d’Acure.

Si vous êtes un cas particulier sur le plan statistique, il sera beaucoup moins probable que vos goûts soient reflétés dans la sélection de boissons vous étant offerte. Comme les données démographiques recueillies par toutes les machines Acure du réseau sont utilisées pour déterminer le niveau des stocks pour les commandes subséquentes et, avec le temps, peut-être même les produits que les fabricants décideront de produire et de mettre sur le marché, cette distinction se concrétise de plus en plus de façon progressive. Dans ce système, la façon dont une personne agit, ainsi que la mesure dans laquelle cela est conforme au modèle démographique préalablement existant, limitent les choix qui lui sont offerts et qui sont offerts à autrui, ici et ailleurs, à l’heure actuelle et à l’avenir.

Peut‑être que je trouve cela dérangeant simplement parce que je ne suis pas japonais. Ayant vécu à Tokyo pendant trois ans, je reconnais que l’idée selon laquelle les préférences personnelles découlent ou devraient découler de l’appartenance à une classe ou à une catégorie est moins problématique dans la culture japonaise qu’en Amérique du Nord. Cependant, comme je suis nord‑américain, je refuse d’accepter que, en tant qu’homme âgé de 43 ans, je « devrais » vouloir boire une bière à 17 h… et je suis désespéré à l’idée que, au bout du compte, les seuls choix qui me seront offerts seront ceux qui correspondent, selon les statistiques, à une personne moyenne de mon âge et de mon sexe. (Quiconque connaît la logique réductrice du développement technologique confinée à l’autisme ou la pression implacable en faveur de l’optimisation systémique inhérente au capitalisme récent comprend que ce scénario n’est pas aussi absurde qu’il en a l’air.)

5. Collecte subreptice ayant un potentiel prédictif et normatif inhérent

La capacité prédictive, normative et de concrétisation troublante d’Acure est une conséquence directe de sa capacité de recueillir des renseignements sur les utilisateurs sans que ces derniers s’en méfient ou y consentent. Ce n’est pas une coïncidence si cette même situation est responsable d’une bonne partie de l’appréhension que j’éprouve à l’égard du service qui se trouve actuellement à l’autre extrémité de notre spectre de préoccupations, soit le progiciel d’analyse vidéo VidiReports offert par la société française Quividi (bien nommée, puisque cela signifie en latin « celui qui observe »).

Cependant, alors que la machine distributrice ne recueillait des renseignements qu’auprès de gens qui avaient délibérément décidé de l’utiliser, VidiReports recueille des renseignements auprès de ses utilisateurs et de personnes qui n’en sont pas. Il s’agit d’un logiciel conçu pour être placé au verso de panneaux d’affichage vidéo prétendument « bidirectionnels » installés dans l’espace public, c’est‑à‑dire des panneaux équipés de caméras tournées vers l’extérieur. Encore une fois, comme ces caméras sont conçues intentionnellement pour être difficiles à déceler, elles permettent de capter des images de personnes (regardant activement le panneau ou étant inconscientes de sa présence), qui, presque assurément, ne savent pas qu’elles sont filmées.

Et si la plupart de ces personnes étaient surprises d’apprendre qu’elles sont filmées, elles seraient vraisemblablement stupéfiées de connaître le degré d’analyse auquel sont assujetties ces images. VidiReports isole des gens dans son champ de vision et, en examinant en temps réel quelque 80 caractéristiques faciales indexées, détermine leur sexe, leur âge (quatre groupes d’âge) et leur origine ethnique. Un « compteur de regards » fait partie de certaines versions du logiciel; il tient compte de l’indice de lumière reflétée par les yeux des spectateurs et élabore une mesure d’attention qui est étroitement liée à ce profil démographique sous‑jacent et au suivi image par image du contenu vidéo affiché.

Tout simplement, VidiReports prétend pouvoir indiquer à ses utilisateurs qui regarde quoi précisément, et pendant combien de temps. De plus, il aide également ses utilisateurs à savoir de façon raisonnablement poussée quel contenu n’attire pas l’attention.

Dans un monde parfait, cela serait anodin. Dans notre monde cependant, cela soulève plusieurs préoccupations :

Tout d’abord, cette connaissance détaillée comporte des répercussions raisonnablement prévisibles pour la texture de l’espace public.

Nous savons que, aux yeux d’un spécialiste du marketing, tous les spectateurs potentiels ne sont pas égaux; des personnes faisant partie de certaines catégories démographiques générales sont considérées comme ayant un plus grand revenu, ce qui fait qu’il est plus désirable et intéressant de capter leur attention.

Si nous combinons cette information à la capacité qu’offre VidiReports de déterminer précisément quelle image capte à tout coup l’attention de personnes d’un âge et d’un sexe donnés, les répercussions sont claires. Si, par exemple, les « hommes âgés de 18 à 34 ans » représentent la catégorie prédominante, une proportion encore plus élevée d’images présentées sur les écrans dans l’espace public viseront cette catégorie démographique, et, lorsque la capacité de précision de l’oculomètre sera intégrée au logiciel, ces images occuperont une plus grande proportion de l’écran.

Il pourrait donc exister des districts complets d’une ville dont le registre visuel ne viserait qu’une seule clientèle, considérée comme une catégorie démographique hypothétique sans lien précis avec le monde réel. Si vous voulez savoir à quoi la vie urbaine ressemblera à l’avenir, imaginez une énorme annonce de Girls Gone Wild affichée à jamais. Il va sans dire que cela ne sera pas plaisant pour les personnes qui, pour quelque raison que ce soit, ne trouvent pas ce contenu attirant (ou qui, tout simplement, ne le trouvent pas attirant à l’heure actuelle).

Ensuite, les activités de collecte de données, comme celles effectuées par VidiReports, sont toujours considérées comme sécuritaires et, de façon fiable, « anonymes » par leurs promoteurs, mais des analyses subséquentes menées par des parties plus averties (et désintéressées) montrent que, dans certaines situations, suffisamment de renseignements sont recueillis par ces systèmes pour permettre d’identifier raisonnablement rapidement une personne donnée.

Latanya Sweeney, directrice du Laboratory for International Data Privacy de l’Université Carnegie Mellon, souligne qu’il s’agit de la conséquence prévisible d’une ère d’analyse relationnelle rapide en ligne, dans le cadre de laquelle des liens peuvent être faits de façon banale entre des renseignements recueillis d’un point de collecte et des ensembles de données préexistants, réseautés et globalement accessibles. Le recoupement d’un seul ensemble de données recueillies par VidiReports et d’une analyse suffisamment puissante d’images publiques figurant dans Flickr, par exemple, permettrait probablement de déterminer le nom et le graphe social d’une personne.

Par conséquent, Mme Sweeney soutient fermement que l’anonymisation nominale n’est désormais plus une stratégie de préservation de la vie privée viable. Cependant, ce message n’a pas encore atteint les spécialistes du marketing ou il est délibérément écarté et minimisé, ce qui est tout aussi probable. Néanmoins, le potentiel inhérent d’utilisation abusive – surtout quand une telle identification est combinée à un emplacement en temps réel, sans compter les données, dont la résolution est en millisecondes, sur les tendances habituelles d’attention d’une personne – est évident.

De plus, ces mécanismes de collecte de données entraînent évidemment des considérations liées à la sécurité des renseignements. Bien qu’il soit assez troublant de savoir que des données pouvant servir à m’identifier peuvent être conservées par une seule société privée, il est encore plus inquiétant de penser, lorsque ces données sont recueillies sans que j’en sois averti ou que j’y consente, que Quividi (ou toute autre organisation dans la même position) pourrait, au fil du temps, ne plus avoir le contrôle de ses biens.

Sans exagérer l’importance des choses, nous pouvons raisonnablement considérer l’accès à une base de données établissant un lien entre une signature biométrique unique (et difficile à dissimuler ou à modifier) et la présence connue de la personne correspondant à cette signature à un endroit et à un moment donnés comme un passe-partout capable de déverrouiller les renseignements de nature délicate compris dans bon nombre d’autres ensembles de données de prime abord anonymisés.

Enfin, il devrait être clair que tout système ayant un modèle d’affaires semblable à celui sur lequel est fondée la viabilité commerciale de VidiReports constitue un transfert unidirectionnel et involontaire de renseignements sur les personnes se déplaçant dans l’espace public à des intérêts privés qu’elles ne connaissent pas.

Comme une réaction nulle est tout de même une conclusion importante pour les créateurs et les promoteurs de contenu concernés, toute personne qui passe à proximité d’un panneau muni de VidiReports et qui ne réagit pas aux images présentées fournit aux clients des données précieuses. Cela a pour effet de tirer un avantage économique de la rue – avantage encore une fois tiré des actions et des comportements quotidiens inconscients de citoyens qui ne savent pas du tout qu’ils le génèrent, dont la contribution n’a pas été sollicitée et qui ne bénéficieront aucunement, même pas de façon indirecte, de l’analyse qui sera menée sur leur activité.

Honnêtement, j’ai de la difficulté à imaginer un ensemble de circonstances dans lesquelles des propriétaires ou des exploitants de panneaux d’affichage pourraient, efficacement et en temps réel, a) avertir les passants de leur intention d’utiliser VidiReports (ou toute autre technologie d’affichage bidirectionnel) pour recueillir des renseignements des membres du public; b) leur demander leur consentement à cet égard; c) désactiver le capteur si le consentement n’est pas obtenu, uniquement parce que la proposition de valeur entière du produit repose essentiellement sur la notion selon laquelle le sujet de l’analyse n’en est pas conscient.

Combinées, ces questions font que VidiReports (et bon nombre de produits semblables comme Immersive Media, intuVision, Cognovision et AIM) devrait préoccuper tout organisme public chargé de protéger la vie privée des citoyens. Ce système est très différent du capteur Välkky, et la proposition selon laquelle il en prenait peu et en donnait beaucoup en retour a été inversée :

  • Välkky a un effet strictement local, tandis que VidiReports entraîne des changements sur la planète qui sont arbitrairement éloignés sur le plan physique et temporel par rapport à l’endroit où sont recueillies les données;
  • Välkky n’enregistre que la présence ou l’absence d’un objet mouvant qui peut ne pas être humain, tandis que VidiReports comporte de multiples régimes de détection et d’analyse visant des personnes afin de les caractériser solidement et de tirer une valeur économique de cette caractérisation;
  • Les « connaissances » générées par Välkky expirent immédiatement, tandis que les renseignements recueillis grâce à VidiReports sont entreposés indéfiniment et conservés dans le réseau tant et aussi longtemps qu’une seule copie du dossier contenant ces renseignements subsiste;
  • Dans une certaine mesure, Välkky contribue clairement au bien public, tandis que VidiReports n’offre pas une telle justification et dément activement l’attente raisonnable d’une personne selon laquelle son anonymat est protégé en public, en plus de nuire au domaine spatial commun.

6. Conclusion et recommandations

La plus grande aspiration d’un système semblable à VidiReports est d’identifier personnellement des piétons en mouvement et de leur présenter des publicités personnalisées, adaptées non pas à un groupe démographique ni même à des personnes, mais plutôt à leurs réactions observées en temps réel, tandis que leur regard se pose ici et là et que leur désir pour telle ou telle chose est enregistré en tant que trace biométrique discernable.

Heureusement, un système ayant de telles capacités n’existe actuellement que dans des fictions comme Rapport minoritaire et les rêves des spécialistes du marketing. Cependant, je ne crois pas qu’il soit sûr de sous-estimer cette question; comme la chercheuse Kelly Gates de l’UCSD l’indique clairement dans son rapport de 2010 intitulé Our Biometric Future, les technologies de détection faciale à distance, d’établissement de correspondance entre des tendances et de reconnaissance sont déjà bien développées, et l’analyse de l’expression automatisée n’est pas loin derrière. (Aux États‑Unis, des progrès particulièrement rapides dans le domaine sont vraisemblablement la conséquence de l’affectation continue de fonds de la DARPA et du département de la Sécurité intérieure. Comme cela est depuis longtemps le cas, depuis au moins la Première Guerre mondiale, les technologies perfectionnées tout d’abord sur les champs de bataille à l’étranger et en toute sécurité sur les corps d’autrui sont tôt ou tard ramenées dans l’environnement national et auprès des gens qui y habitent, comme dans un effet boomerang.)

Il ne faut pas non plus sous‑estimer la difficulté de communiquer efficacement les risques pour la protection de la vie privée que posent ces technologies et des technologies semblables aux personnes qui y sont exposées. En vérité, les relations pouvoir‑connaissance de tous les scénarios ci‑dessus sont artificiellement faciles à distinguer et à comprendre, car elles sont associées à des éléments macroscopiques individuels qui peuvent être vus, touchés, expérimentés, bloqués ou réglés. En présence de ces qualités, il est relativement aisé d’élaborer et de mettre en œuvre des contre‑mesures. Cependant, la plupart des scénarios dans lesquels la protection de la vie privée est à risque en raison de technologies intégrées et réseautées de collecte de renseignements ne seront vraisemblablement pas aussi simples. Il est beaucoup plus difficile de comprendre ce qui est en jeu quand des relations pouvoir-connaissance préjudiciables sont simplement inhérentes à un endroit donné, soit parce qu’elles sont principalement présentes dans un logiciel et générées par ce dernier, soit parce qu’elles existent seulement en tant que nouveau phénomène d’un groupe d’objets qui sont inoffensifs en soi et qui ne menacent la protection de la vie privée que lorsqu’ils sont regroupés dans un ensemble fonctionnel.

C’est pour toutes ces raisons que je crois que les organes de réglementation jouent un rôle important dans le façonnement de nos rencontres collectives avec de telles technologies. Ce n’est pas à moi en tant qu’habitant de New York et citoyen des États‑Unis de vous dire ce qu’il faut permettre et limiter dans nos villes. Mais je crois fermement que quiconque comprend ces technologies et leurs répercussions a maintenant l’obligation de les expliquer aux gens ordinaires profanes qui sont exposés à ces technologies : pour décrire la façon dont les systèmes techniques réalisent leurs effets, pour énoncer ce qui est en jeu et pour aider les personnes et les collectivités à avoir des réactions appropriées par rapport à ces technologies. J’espère que j’ai réussi à le faire efficacement ici et que cela sera utile dans vos efforts pour trouver le bon équilibre entre le nouveau potentiel technique et les valeurs canadiennes.

Je vous remercie de votre temps et de votre attention.

BIBLIOGRAPHIE

Capteur de circulation Välkky de Havainne (en anglais seulement)

Annonce munie d’un oculomètre d’Amnistie Internationale (en anglais seulement)

Annonce avec caisson lumineux sensoriel de Nikon (en anglais seulement)

Machine distributrice Acure (en anglais seulement)

Logiciel VidiReports de Quividi (en anglais seulement)

Ressource générale sur “l’affichage prétendument « bidirectionnel (en anglais seulement)

Date de modification :