Sélection de la langue

Recherche

L'inspection approfondie des paquets, un élément essentiel de la neutralité du Net

Cette page Web a été archivée dans le Web

L’information dont il est indiqué qu’elle est archivée est fournie à des fins de référence, de recherche ou de tenue de documents. Elle n’est pas assujettie aux normes Web du gouvernement du Canada et elle n’a pas été modifiée ou mise à jour depuis son archivage. Pour obtenir cette information dans un autre format, veuillez communiquer avec nous.

Anil Somayaji

Mars 2009

Avis de non-responsabilité :Les opinions exprimées dans ce document sont celles de l'auteur. Elles ne reflètent pas nécessairement celles du Commissariat à la protection de la vie privée du Canada.

Nota : Cet essai a été communiqué par l'auteur au Commissariat à la protection de la vie privée pour le Project d'inspection approfondie des paquets.


Les questions de l’inspection approfondie des paquets (IAP) et de la neutralité du Net doivent se comprendre dans le contexte historique d’Internet. Son histoire est assez remarquable. À l’origine un ensemble de technologies conçues pour connecter des douzaines d’institutions, au début des années 1970, Internet répond aujourd’hui aux besoins en matière de communication de centaines de millions de personnes. Le réseau a pris de l’ampleur, et continue d’en prendre, parce que des ingénieurs de partout dans le monde étudient et améliorent sans cesse les technologies sur lesquelles repose le Net. C’est presque un truisme chez les ingénieurs de réseaux de dire que s’ils avaient pu, ils auraient construit Internet autrement. Ils n’en ont cependant jamais eu l’occasion et ont donc dû s’intéresser surtout à la façon dont le réseau, dans son état actuel, peut répondre aux immenses attentes de chacun. Ainsi, Internet ne saurait être perçu comme un système statique et fini; il s’agit plutôt d’une expérience continue de communication ouverte.

Au départ, Internet reposait sur la vision fondatrice que les réseaux les plus rapides et les plus efficaces sont les réseaux les plus simples. La fiabilité, l’intégrité et la confidentialité pouvaient être assurées aux points d’extrémité avec des protocoles de communication sur mesure; leur ajout au réseau lui-même aurait compliqué les choses, gaspillant ainsi de précieuses ressources. Internet a été conçu pour transmettre simplement les données par service « sans garantie ». Des notions comme la qualité du service n’étaient pas prises en compte; en fait, les premiers concepteurs du réseau s’estimaient heureux si le réseau fonctionnait tout court.

Aujourd’hui, nos attentes sont de plus en plus grandes. Nous utilisons souvent Internet pour travailler, et Internet tient remarquablement ses promesses. Si des pépins techniques interrompent parfois les communications, les administrateurs et ingénieurs de réseau doivent surtout composer avec la surexploitation et l’abus des ressources : envois massifs de pourriels, attaques entraînant un refus de service, partage poste-à-poste de fichiers vidéo, foules subites – voilà les véritables menaces. Les points d’extrémité, soit les ordinateurs connectés à Internet et leurs utilisateurs, ne sont pas en mesure de contrer ces attaques. Ainsi, les fournisseurs de services Internet sont intervenus du mieux qu’ils le pouvaient. En d’autres mots, il a fallu qu’Internet devienne « intelligent » pour arbitrer la myriade d’utilisations que nous en faisons, qu’elles soient légitimes ou non.

Une telle intervention aurait été impossible avec les anciennes technologies : les routeurs assez rapides pour Internet ne disposaient pas des ressources pour filtrer le trafic au fur et à mesure. Mais les technologies ont tellement progressé que les fournisseurs de services ont maintenant la capacité de surveiller et de manipuler le trafic de différentes façons. Ce pouvoir leur est maintenant nécessaire pour maintenir leurs réseaux : s’ils échouent à isoler un programme de partage de fichiers invasif ou un réseau de zombies qui diffuse des pourriels, leurs réseaux deviendront inutilisables pour l’utilisateur courant. Ce même pouvoir a cependant ouvert une véritable boîte de Pandore pour les fournisseurs de services : s’ils excluent les sources d’abus de ressources, pourquoi ne pas exclure aussi d’autres formes de communications non sollicitées, comme la pornographie juvénile, les propos haineux, les violations du droit d’auteur, etc.? La liste est infinie.

Le principe de neutralité du Net repose sur la non intervention des fournisseurs de services à l’égard de certains types de trafic, ce qui devrait idéalement se traduire par le retour aux réseaux d’autrefois, qui se contentaient de transmettre les données aveuglément. Aujourd’hui, une approche aussi simpliste provoquerait rapidement l’effondrement d’Internet. Les défenseurs de la neutralité du Net en sont conscients et font donc exception lorsque les fournisseurs assurent une surveillance et apportent des changements dans le but de maintenir leurs réseaux. Le problème se pose toutefois lorsque ces exceptions sont codifiées : une trop grande souplesse permettrait aux fournisseurs de commander leurs réseaux en despotes, mais un excès de rigidité les empêcherait de s’adapter aux autres emplois problématiques d’Internet.

Aujourd’hui, toute technologie de gestion du trafic Internet devra faire l’inspection approfondie des paquets (IAP). L’IAP est essentielle, car les en-têtes de paquets IP (parties « externes » des données réseaux qui transmettent l’information d’adressage) ne suffisent plus pour déterminer les modes de répartition du trafic. Presque toutes les nouvelles applications tentent de transmettre leurs communications de la même façon que le reste du trafic Web pour arriver à surmonter les nombreux obstacles actuels (coupe-feu). Comment un fournisseur peut-il déterminer si un courant de trafic Web est un programme de partage de fichiers ou un ver informatique autopropageable? Le seul moyen de le savoir est d’aller au-delà des simples en-têtes pour consulter les données utiles (paquets IP et TCP). Voilà exactement en quoi consiste l’inspection approfondie des paquets.

La maladresse avec laquelle certains fournisseurs ont réglementé leurs réseaux pose cependant problème. Certains fournisseurs ont exclu partiellement ou totalement certaines applications populaires (comme BitTorrent), même s’il existe de nombreuses utilisations légitimes, et de nombreux utilisateurs légitimes, de telles technologies. Si les mauvaises politiques des fournisseurs de services sont souvent à l’origine de ce type de décisions, la majeure partie du problème vient des technologies actuelles : nous ignorons tout simplement comment adapter le réseau pour qu’il punisse automatiquement les délinquants. Par conséquent, les administrateurs de réseau doivent assumer la lourde tâche de relever toutes les utilisations dangereuses du réseau, puis de créer des règles pour les contrecarrer. Ces règles occasionnent inévitablement leur lot de dommages collatéraux, même lorsqu’elles sont mises en œuvre en toute bonne foi.

Depuis les débuts d’Internet, les technologies n’ont cessé de s’améliorer. Les fournisseurs ont accès à des mécanismes de plus en plus précis pour surveiller et réglementer leurs réseaux. Les outils se sont beaucoup développés et donnent lieu à de nombreux abus, ce qui nous ramène à la question de la neutralité des réseaux.

Il est essentiel que les technologues disposent de suffisamment de souplesse pour permettre le développement, l’essai et la mise en œuvre de nouveaux moyens de protéger Internet. Ces mécanismes seront largement fondés sur l’inspection approfondie des paquets, tout simplement parce que c’est là que se trouve l’information cruciale. Bloquez l’IAP et vous paralyserez Internet. Cependant, si nous voulons prévenir les abus que permettent ces technologies, il faut établir des lignes directrices quant à leur utilisation et prévoir des mesures incitatives pour le développement de technologies appropriées.

Si nous souhaitons protéger la vie privée, des règles doivent régir le stockage de données et l’accès aux données par les administrateurs de réseaux. Pour assurer l’équité, il faut nous doter de règles qui restreignent les façons de traiter le trafic, mais pour faire face à l’évolution inévitable des modes d’utilisation et des abus, l’élaboration de ces règles doit absolument tenir compte de la finalité. Les fournisseurs de services doivent pouvoir bénéficier d’une grande souplesse, mais ils doivent pouvoir montrer qu’ils agissent en toute bonne foi.

Encore faut-il définir ce qu’est la « bonne foi », bien sûr. Peut-être faudrait-il des normes de « pratiques exemplaires » que l’industrie devrait respecter pour résoudre les différents problèmes techniques de répartition du trafic. Il s’agirait de méthodes standards de gestion du trafic. Ainsi, si les fournisseurs de services adoptent des méthodes standards, ils pourront se défendre en invoquant la bonne foi.

Toutefois, pour que de telles méthodes fonctionnent, il faut mettre en place des technologies qui facilitent la prise de décisions en toute bonne foi. Il faut exécuter des programmes (des algorithmes) qui repèrent les types de trafic qui sont problématiques plutôt que de laisser des personnes décider du trafic à endiguer ou à juguler. Plus les méthodes seront automatisées, plus les systèmes ont des chances d’être équitables et de protéger la vie privée, tout en ayant la capacité de supporter les abus. Aucun système n’étant parfait, il faudra toujours des personnes pour surveiller les réseaux, mais si les administrateurs n’ont pas à créer de règles de gestion trop souvent, les risques d’abus demeureront minimes.

Les gouvernements ont un rôle essentiel à jouer dans la résolution de ce problème. Ils doivent offrir des mesures incitatives pour que les fournisseurs de services développent des systèmes de gestion du trafic automatisés, qui permettent d’éviter que des personnes aient à décider quelles données peuvent transiter sur le réseau. Ces technologies n’existent pas encore, mais avec les bonnes mesures incitatives, je suis persuadé qu’elles viendront à être développées (le développement de ce type de technologies est justement un de mes objectifs de recherche). Sans ces incitatifs, cependant, les fournisseurs continueront d’employer des méthodes de gestion du trafic manuelles et improvisées, car il s’agit d’une voie facile, qui leur assure le plein pouvoir et la plus grande souplesse. Les gouvernements devraient intervenir et aider les fournisseurs de services à atteindre un équilibre entre leurs besoins et ceux de leurs clients et de la société.

Date de modification :