internet

Tendances & Actualités

Internet : l’apocalypse annoncée n’est toujours pas en vue…

Internet fait régulièrement l’objet d’alertes « rouges ». Le réseau des réseaux pourrait s’écrouler… Pourtant le crash mondial, moult fois prophétisé, ne s’est toujours pas produit. Les vrais enjeux sont autant financiers que techniques.

La dernière alerte, bien relayée – buzz et clics obligent – annonçait la fin d’Internet pour 2023. Elle remonte à mars 2015, lorsque la communication d’un chercheur britannique de l’université d’Aston (Birmingham), Andrew Ellis, convié à un colloque de deux jours, a été savamment orchestrée avec un teasing efficace : « Internet n’a plus que 8 ans à vivre ! ». Son affirmation renvoyait à une projection de la saturation de la bande passante sur le réseau des réseaux – si rien n’était fait…

L’argumentation est en partie fondée. En partie seulement. Elle ne date pas d’aujourd’hui. Le risque de saturation d’Internet a toujours existé, depuis sa mondialisation au milieu des années 1990. En 1996, le chercheur Bob Metcalfe, inventeur des réseaux Ethernet, disputait la vedette à des analystes d’IDC pour déterminer quand et comment le Web allait s’asphyxier. Des solutions ont été trouvées, et rien ne s’est arrêté. En 2004, un chercheur de l’Université de technologie d’Helsinki, Hannu Kari, donnait à nouveau l’alerte, invoquant le même risque de saturation des réseaux.

Un risque intrinsèque

En réalité, Internet vit par nature dans cet état de tension permanent : il utilise un protocole de transfert des données par paquets (ou datagrammes, invention due au français Louis Pouzin, au début des années 70) qui fonctionne en mode best effort : les nœuds du réseau testent les accès aux serveurs en permanence et, grâce à des routeurs « intelligents », la meilleure route est choisie. Or, comme certains goulets d’étranglement peuvent toujours surgir, liés ou non à des cyber-attaques, le réseau peut tomber. Mais en certains endroits seulement. Car toute l’alchimie savante d’Internet repose précisément sur le fait que jamais le réseau ne peut être totalement paralysé, grâce à des procédures de coupures locales automatiques. En pratique, les perturbations, fréquentes, sont rendues imperceptibles grâce à un maillage très sophistiqué des diverses routes possibles. Il est vrai, cependant, que lors de cyber-attaques intenses et répétées, une partie du réseau peut être très sérieusement perturbée et peut ralentir les flux sur toute une « plaque régionale » plusieurs heures durant. Mais pas au-delà.

L’arlésienne d’un second réseau

Construire un autre réseau Internet a bien été envisagé – à commencer par le puissant Microsoft. Mais cela revenait à construire une seconde infrastructure parallèle, extrêmement coûteuse : Bill Gates s’est ravisé, constatant le succès mondial du Web utilisant des navigateurs qui, au départ, lui ont échappé…

Cette idée d’un réseau superposé, qui serait réservé aux entreprises (à celles qui accepteraient d’en payer le prix) ressurgit de temps en temps. Mais sans lendemain. Car, dans la pratique, les entreprises achètent de la « qualité de service », proposée par les opérateurs qui s’engagent, eux, à assurer les meilleures connexions possibles à Internet, en s’appuyant sur des commutateurs – routeurs spécifiques et sélectifs, très performants.

Qui accepte de payer la note ?

La question critique sous-jacente reste la même depuis des années : qui est prêt à partager la facture ? Face aux mastodontes du Web que sont Google, Apple, Facebook, Amazon, les opérateurs télécoms et les Etats cherchent divers moyens pour leur faire supporter le coût colossal des infrastructures. Car les réseaux de fibre optique, qui pèsent des milliards, sont sans cesse en augmentation de capacité. Or plus de 50 % des accès à Internet se font désormais à partir des réseaux mobiles, dont la montée en débit (4G+ et bientôt 5G) coûte, là encore, une fortune. Le coût de l’énergie –et sa disponibilité en certaines régions – pèsent également toujours plus dans la balance.

Pour l’heure, comme les enjeux sont colossaux et mondiaux, on en reste à des discussions bipartites, très dispersées. Les plus gros opérateurs, dont Orange, tirent leur épingle du jeu en mettant en balance l’accès aux réseaux en Afrique, par exemple – ce qui aurait permis de faire fléchir, un peu, Google. Ces opérateurs cherchent également à négocier des services à valeur ajoutée (comme la vidéo à la demande).

De leur côté, les responsables de la concurrence essaient de calmer le jeu, invoquant que les géants du web ont un statut éminemment international et qu’ils sont la poule aux œufs d’or qu’il ne faut pas faire fuir… Donc, le débat en est là : parvenir à une régulation win/win, du type soft law, qui prendrait en compte, entre autres, la capacité à collecter et exploiter les données des internautes.

Quant aux pouvoirs publics, ils marchent également sur les mêmes œufs… Ils tentent de faire admettre, à petites doses, de nouvelles taxes aux géants du web. Mais sans cohésion au niveau européen ou international, le jeu est très délicat.

Bref, inventer ou refondre un nouvel Internet, avec un consensus pour partager la note, ne se fait pas en trois jours…

Ils l’ont dit

Fleur Pellerin, ministre de la Culture et de la Communication:

« De nouveaux outils fiscaux spécifiques pourraient être envisagés [pour taxer les géants d’Internet] mais au niveau européen ou d’un noyau de pays. »

Henk Steenman, CTO d’AMS-IX, nœud d’échange Internet à Amsterdam :

« Un effondrement d’Internet au niveau mondial sera évité en hébergeant les données, qui représentent la majeure partie de la bande passante, plus près de l’utilisateur final. C’est ce à quoi nous assistons. »

Pour aller plus loin

Make sure you always clean your code to avoid bad HTML code. Use the best free HTML editor at www.html-cleaner.com!