Internet, pourquoi ça va mal aujourd’hui ? – OPINION

Attaques DDoS sur des serveurs DNS ou NTP, saturation des lignes et j’en passe, l’Internet d’aujourd’hui n’est plus du tout le même qu’à ses débuts…
[su_note note_color= »#c7e9f2″]Il s’agit de mon avis et de mon regard actuel ; Je suis curieux de voir vos avis en commentaires (ou autre !) :)[/su_note]

Toujours plus haut, toujours plus fort

Malheureusement, le slogan du Fort Boyard raisonne vraiment partout… ! C’est pourtant actuellement le cas lorsqu’on regarde la recrudescence des attaques sur le web en général, partout dans le monde et vers « n’importe quoi ».Vu l’envergure actuelle, je pense qu’il est bon de regarder un peu ce qu’il en est, faire une sorte d’état des lieux de l’Internet et comprendre qu’est-ce qui peut bien nous paralyser tous un jour ou l’autre…


Les fondements même d’Internet actuellement

Internet repose sur un réseau de machines inter-connectées. Des serveurs, des PC, des utilisateurs, tout ce beau monde est connecté entre eux, s’échangent des données maintenant à la vitesse de la lumière ou presque (merci la fibre) via de nombreuses passerelles… qui malgré elles forment un goulot d’étranglement !

Classiquement, lorsqu’un utilisateur accède à un site web (exemple simple), des requêtes sont envoyées au travers des tuyaux mondiaux pour naviguer jusqu’au serveur du site web concerné. Jusque là, tout va bien.Si de nombreux utilisateurs accèdent en même temps au même site, là ça peut se compliquer un peu mais principalement au niveau du serveur du site web – si ce serveur en question est sous-dimensionné, il va donc y avoir de la latence (dite à cet instant : « ça rame »).

Il s’agit surtout d’une architecture de type « client – serveur ». Une machine est disponible pour un ensemble d’utilisateurs, de façon bi-latérale. C’était bien… avant !


Le changement, c’est maintenant ?

Le type « client – serveur », c’est encore énormément exploité aujourd’hui, parce que c’est une architecture fiable et validé ; il y a un hic cependant aujourd’hui : cette architecture a atteint sa limite !Avec l’explosion des matériels mobiles (téléphones portables, tablettes et PC portables), il y a de plus en plus de machines connectées en même temps, au même endroit et de plus en plus vers les mêmes points de connexion. On ne peut pas parler d’une centralisation des connexions, puis-qu’avec toutes les technologies de load balancing les connexions peuvent être redirigées en temps réel pour éviter la saturation. Cependant, ça ne peut pas tout faire. Il faut trouver de nouvelles solutions, de nouveaux moyens pour parer à cette démographie technologique en très forte croissance.


Le cas de l’IoT

Les matériels comme les montres connectées, les réfrigérateurs connectés, les lumières et TV connectées, bientôt votre canapé et vos WC connectées… Il faut arrêter de TOUT connecter. Sérieusement. STOP.Ça en devient ridicule de mettre une connexion à l’Internet dans tous les objets du quotidien ; il y a même parfois aucun réel intérêt à avoir l’accès à l’internet dans certains matériels, comme votre réfrigérateur ! De plus, vous n’êtes pas sans avoir entendu ou ressenti un lourd problème de connexion fin octobre 2016 (pour rappel : https://www.undernews.fr/hacking-hacktivisme/dyndns-vs-ddos-fin-de-la-cyberattaque-qui-a-mis-a-mal-les-geants-americains-du-web.html) – en partie à cause des objets connectés.

La faute est à ces fameux objets mais pas seulement : les constructeurs / développeurs omettent les sécurités élémentaires comme des mots de passe… Ou même une sorte de mini pare-feu à l’intérieur. Les routeurs sont peut être trop ouverts et trop « accessibles », autant laisser la porte d’entrée de votre maison ouverte à quiconque.Les exemples ne manquent pas, je pense que vous voyez où je veux en venir.


Et le P2P ?

Aujourd’hui, l’internet mondial fonctionne toujours sur un principe client-serveur comme dit plus haut. Cela fait plus de 40 ans que ça fonctionne ainsi sans poser de réels problèmes. Toutefois, c’est quand même critique de se baser continuellement sur une base / un modèle qui est statique, qui n’a pas été mis à jour pour suivre l’évolution , notamment vis-à-vis de l’utilisation qui est effective.

De plus en plus, les matériels et les utilisateurs sont devenus « mobiles » – accéder de n’importe où à ses données, le plus rapidement possible. Il ne faut pas non plus oublier que nous sommes toujours plus nombreux à utiliser les moyens de communication, parfois plusieurs en même temps pour un même utilisateur.La technologie du bitcoin ou encore les torrents mettent en avant une autre architecture dite distribuée, le Peer-to-Peer (P2P). Ce n’est pas illégal. Il s’agit d’une méthode de connexion entre paires, donc entre utilisateurs / machines.

Le schéma ci-dessus permet de comprendre comment « fonctionne » l’architecture de type « Peer-to-Peer ». Les matériels sont connectés entre eux via des échanges, ces échanges se font via internet ou même dans un réseau local. Bien entendu, les PC peuvent accéder à des serveurs autrement que par P2P, par une méthode plus traditionnelle qu’est le « client-serveur ». L’avantage majeur, c’est de pouvoir échanger des informations entre les PC directement, sans passer par des serveurs. L’inconvénient, c’est le flux qui est toujours aussi important : en effet, le flux est déplacé non pas uniquement vers les serveurs, mais vers les PC et les serveurs. Tout ça, via les « tuyaux » internet bein entendu. Qui dit plus de flux dit congestion…


Les FAI, les « grands comptes » et les gouvernements

Il y a donc deux grandes architectures, chacune ayant leurs avantages et inconvénients. Il faut prendre en compte aussi les tiers, qui permettent de faire « vivre » l’internet. Ces tiers peuvent être des fournisseurs d’accès à l’internet pour le particulier (Orange, AT&T et autres), mais aussi l’ICANN et l’IETF, qui sont des entitées importantes pour la conception du futur « Internet » et des protocoles utilisés. Les gouvernements sont aussi dans la boucle, puisque c’est par leur projets de loi que l’accès à l’internet peut être débridé.Il faut aussi prendre en compte les hébergeurs, mettant à disposition leurs serveurs. Enfin, d’autres entités fournissant des inter-connexions sont elles-aussi présentes à prendre en compte.

Tout est affaire de « gros sous ». Certains ont pris le taureau par les cornes et ont réussi à en faire un énorme business (Google en première ligne). Suffisait d’être malin, audacieux et téméraire avant les autres !


Donc, pourquoi ça va mal ?!

Nous y voilà.

C’est le problème actuel, quel que soit le thème : il en faut toujours plus, pour tout le monde. Et ce « tout le monde », il grossit très, trop vite, sans que les technologies puissent supporter cet afflux massif et intensif ; parce que oui, la quantité de connexion est une chose, mais il ne faut pas oublier non plus les données !Ces données sont elles aussi encore plus grosses chaque jour. La norme est presque devenue dans l’ordre du Gigaoctets pour les fichiers (hors bureautique), tandis que sur les serveurs on parle maintenant (minimum) en Téraoctets et pour les datacenters en Pétaoctets… !

Il y a trop d’informations, l’utilisation est de plus en plus intensive côté utilisateur, les machines permettent d’avoir toujours plus d’informations à la seconde… mais pas les « tuyaux » d’internet ! Et c’est là que le bât blesse. Clairement, le réseau Internet est congestionné. Certaines installations (aussi bien des « centrales » que les câbles eux-mêmes) sont vetustes et plus fiabilisées pour supporter des connexions aussi massives à l’heure actuelle. Nous envoyons une telle quantité de paquets à la seconde que ces paquets finissent par être en collision et donc ralentir l’accès à l’information – « ça rame », « perte de paquets » -. Heureusement, les réseaux et les matériels informatique actuels arrivent à gérer ces collisions et retranscrire toutefois correctement l’information, presque sans aucune perte.

Pour ne pas arranger cette encombrement, il devient diffile de modifier certaines infrastructures actuelles : par exemple, changer ou mettre à niveau un NRA devient presque impossible à faire puisque de nombreux points de connexion sont reliés à ce NRA ; L’interrompre reviendrait à couper l’accès à l’Internet pour des dizaines de milliers de personnes en même temps !


Quel avenir et quels sont les palliatifs ?

Une première hypothèse serait l’informatique quantique – avec cette technologie, les PC seront aptes à effectuer des calculs impressionnants et inimaginables en une fraction de seconde ! Mais pour avoir toute cette puissance, il faut déjà préparer les moyens techniques : câblage, stockage, unité de calculs.Si la fibre optique pouvait se démocratiser PARTOUT, l’internet serait clairement dans un meilleur état qu’il ne l’est actuellement. En cumulant la fibre optique et le quantique, les échanges se feraient à la vitesse de la lumière… !

Les protocoles actuellement utilisés ne seront pas changés tout de suite – c’est un travail titanesque à réaliser si tel devait être le cas, puisqu’il faut absolument penser à la rétro-compatibilité des matériels et surtout, des logiciels.

Les « acteurs du numérique » doivent prendre en compte aussi les nouvelles façons d’utiliser les outils (il est tellement plus simple aujourd’hui de regarder une vidéo de 4 minutes que de lire un texte de plus de 1600 mots comme celui-ci… :-)) tout en ayant en tête que l’utilisation va forcément pousser des changements radicaux dans la mise en place des équipements / matériels / logiciels informatique.


L’article s’étoffera au fil des jours, en fonction de mes futures réflexions ; De plus, il peut être amené à être re-saisit radicalement. Je garderai quand même une trace des versions, pour comparer.

Sources :

  • https://medium.com/@cdn77/why-the-internet-is-broken-4962cdbbd664#.hur35w906
  • https://fr.wikipedia.org/wiki/Internet
  • https://tools.ietf.org/html/rfc1462
  • http://www.libertesnumeriques.net/evenements/bayart-internet-sciencespo

Julien H

Passionné depuis toujours par l'informatique, je transforme ma passion en expertise. J'utilise quotidiennement les outils et systèmes Microsoft. Je ne délaisse pas mon côté ouvert, notamment via l'utilisation des OS Debian et Archlinux. L'infosec m'ouvre les yeux sur les enjeux actuels et futurs de l'IT.

2 commentaires

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Fermer
Fermer