Le haut débit explose en France ! Des
solutions basées sur la technologie câble existent depuis quelques années
déjà. L'ADSL, une autre technologie basée sur le réseau
téléphonique commuté, qui offre des performances analogues à la technologie
câble, mais qui peut s'étendre sur une bien plus grande partie du territoire,
se développe très rapidement et, contrairement aux réseaux câblés, permet
à différents fournisseurs de proposer des offres concurrentes.
Cependant, beaucoup de chemin reste encore à parcourir. Les offres restent
souvent trop onéreuses pour les particuliers (de 30 € à plus de 150
€ par mois pour les offres les plus performantes) et la qualité du service
n'est pas toujours au rendez-vous. Qu'il s'agisse d'un sous-dimensionnement du réseau,
d'une stratégie commerciale inadaptée ou d'une incompétence manifeste, les
utilisateurs doivent parfois essuyer les plâtres. Pour ces raisons, les
abonnés se sont organisés autour de collectifs afin de dénoncer les problèmes
survenus et exprimer "leur vision" du haut débit. Une liste des
associations d'utilisateurs est disponible sur la page
liens.
Et le site
grenouille.com
? Avec son service de météo du net, il publie en temps réel les
performances des différentes offres d'accès haut débit. Il agit en toute indépendance
et se veut être le plus objectif possible. Ce sont les abonnés eux-même qui réalisent
les mesures et tout le monde est invité à devenir testeur. Plus le
nombre de testeurs sera important, plus la précision globale du système sera
grande, alors n'hésitez pas ! ;-) Un système de mesure reconnu par tous,
utilisateurs et fournisseurs d'accès, est un préalable nécessaire à toute
discussion si des problèmes importants survenaient (écroulement des débits,
mauvais pings, pannes trop fréquentes,...).
La météo du net intéressera également les personnes qui ne sont pas encore
passées au haut débit et qui, face à la multiplication des offres, éprouvent
des difficultés à faire leur choix. Câble ou ADSL ? Est-ce que ça
marche vraiment ? Quels FAIs ? Autant de questions qui pourront trouver un début
de réponse sur grenouille.com.
Enfin, la rubrique "quoi
de neuf ?" est le lieu où on retrouvera les dernières
nouvelles en provenance de la planète haut débit. Cette rubrique pourra
aussi servir de tribune à la disposition des associations d'utilisateurs ayant
des annonces importantes à communiquer.
Le problème de la mesure "absolue" d'un débit, ou de l'encombrement d'une bande passante, n'est pas simple et mérite quelques explications.
N'importe quel internaute, même peu au fait des aspects techniques du réseau, sait d'expérience qu'il peut très bien aller deux fois plus vite sur un site que sur un autre à un instant donné, et que ces débits sont fonction d'un nombre important de paramètres : qualité physique de la connexion de l'abonné, bande passante du fournisseur d'accès, encombrement du backbone, saturation ou panne d'un routeur à un endroit quelconque entre l'abonné et le site qu'il cherche à joindre, etc. sont autant de facteurs qui influent directement sur le débit obtenu.
Or, ces facteurs sont parfaitement impossibles à maîtriser, souvent difficiles à isoler, et ne permettent donc pas une mesure fiable et rigoureuse. Mesurer ainsi la connectivité globale d'un internaute ne rime à rien : lorsque c'est "lent" sur un site donné à un instant donné, qui incriminer d'un strict point de vue technique ? Le fournisseur d'accès ? Un ou plusieurs des multiples réseaux traversés pour atteindre le site recherché ? Le site lui-même ?
Nous avons donc choisi une mesure plus simple, plus fiable et surtout plus significative.
Elle consiste à quantifier le débit obtenu entre
un abonné et un point donné sur le réseau (ou un réseau voisin) de son
fournisseur d'accès. Ce point doit être suffisamment proche de l'abonné (pour
éviter que la mesure ne soit faussée en parcourant des chemins qui ne sont
plus sous la responsabilité du FAI), mais assez éloignée pour sortir du
contexte local. La mesure proprement dite se fait en récupérant un fichier
d'une taille significative sur un serveur FTP.
Par cette mesure, on calcule donc non pas le débit "global"
qu'obtiendrait l'abonné à un instant donné sur un site quelconque, mais
l'encombrement entre abonné et backbones, c'est-à-dire, indirectement,
l'état de saturation de la bande passante louée par le fournisseur d'accès et
la capacité de ses routeurs à absorber la totalité du trafic sans saturation.
Le principe de fonctionnement du système de mesure est simple. Voyons ça sur un petit schéma:
1- Pour un site donné, un opérateur va créer un réseau de collecte. Peu importe sa technologie, que ce soit le câble ou la boucle locale téléphonique via ADSL. Ce réseau de collecte est probablement le point le plus sensible. C'est généralement lui qui est à la source de déconnexions intempestives et de mauvaises qualités de connexions observables par un sous ensemble d'abonnés.
2- Ce réseau de collecte va ensuite être raccordé par un lien (éventuellement plusieurs) sur le backbone de l'opérateur. La capacité de ce lien doit être correctement dimensionnée en fonction du nombre d'abonnés sur le site. Il arrive souvent que ce lien, ou le routeur de raccordement au backbone posent problème.
3- Ce backbone est réputé suffisamment dimensionné pour ne pas créer d'engorgements. Généralement, ce n'est pas à ce niveau que les ennuis des internautes se produisent, mais ça peut arriver quand même.
4- Le backbone de l'opérateur est interconnecté à ceux des autres opérateurs, c'est ce que nous avons vu précédemment, avec le "peering" ou le transit.
Généralement, l'opérateur est maître de l'infrastructure jusqu'au point 4. Il y a tout de même encore une exception pour ADSL dans les villes non dégroupées où une partie plus ou moins importante du réseau de collecte n'est pas entièrement maîtrisée par l'opérateur.
Nous devons donc effectuer des mesures de débit et de temps de réponse entre les clients internautes et des serveurs qui, idéalement, devraient se trouver sur le réseau de l'opérateur mesuré, en un point stratégique de ce réseau, c'est à dire au voisinage des noeuds d'interconnexions, le point 4 sur le schéma.
Le processus de téléchargement et d'envoi du résultat
au serveur se répète automatiquement et en tâche de fond toutes les 30
minutes (avec un delta aléatoire de façon à éviter que tous les clients
téléchargent le même fichier au même moment) via un logiciel client
spécialement développé pour grenouille.com,
disponible en version finale pour Windows 98/Me/NT/2000, Mac OS et Linux, et ce
de façon totalement transparente pour l'utilisateur et sans intervention de
celui-ci.
En plus de la mesure du download (réception de données), le logiciel peut
mesurer l'upload (émission de données) et le ping (temps de réponse).
Enfin, un système de gestion des pannes permet de différer l'envoi des
résultats en cas de coupure du réseau ou de panne grave, et donc de faire apparaître
en clair ces dysfonctionnements imputables aux fournisseurs d'accès sur les
graphes lorsqu'ils se produisent.
Le logiciel intègre par ailleurs un mécanisme
d'invalidation permettant de garantir la fiabilité des mesures réalisées.
Imaginez le scénario suivant : vous lancez un gros téléchargement avec votre
client FTP favori alors que dans le même temps le logiciel essaye de réaliser
une mesure. Que va-t-il se passer ? Le logiciel n'ayant pas à sa disposition
tout le potentiel de votre connexion haut débit, la mesure sera très
certainement faussée. Afin d'éviter cela et garantir la fiabilité des
mesures, il y a un contrôle de la bande passante totale utilisée sur la
machine. Si le logiciel estime que la bande passante disponible pour réaliser
la mesure est insuffisante, cette dernière est automatiquement invalidée et
reprend 5 minutes après.
Il est important de garder à l'esprit le protocole de mesure choisi, à savoir que les tests doivent être faits sur des serveurs situés sur le réseau du fournisseur, ou les plus proches de ce réseau. N'oublions pas que l'objectif est de mesurer les performances de la fourniture d'accès. Ce choix délibéré peut rendre les mesures non conformes à ce que pourraient observer certains abonnés dans leurs activités sur le Net, principalement en ce qui concerne les joueurs, qui sont très sensibles au temps de réponse et au taux de paquets perdus.
Pour l'instant, cette mesure n'a pas posé de problèmes. Il est en effet facile de trouver des serveurs qui répondent aux pings, soit sur le réseau du FAI, soit proches de ce réseau (pour des raisons de sécurité, certains FAI choisissent de paramétrer leurs serveurs pour ne pas répondre aux pings).
Ce n'est généralement pas un problème de trouver un serveur FTP accessible en lecture sur le réseau du fournisseur. Il suffit de s'assurer que ce serveur est suffisamment dimensionné pour ne pas introduire de perturbations dans la mesure.
C'est plus délicat, en revanche, d'obtenir un serveur accessible en écriture sur le réseau du fournisseur. Certains FAI en mettent un à disposition, d'autres non. Dans ce cas, il nous faut trouver un serveur qui soit bien exposé. La société Webtech nous a gracieusement proposé une telle machine.
Vous l'avez compris, plus il y aura de testeurs sur la grenouille, plus les statistiques produites seront représentatives des performances de votre FAI.
Si vous pouvez satisfaire à toutes ces conditions, allez sur la page d'inscription, remplissez le questionnaire, téléchargez le client qui correspond à votre système d'exploitation et suivez sa notice d'installation.