Généralités

Accueil ] [ Généralités ] Hardware ] Software ] Interconnexions ] Le modèle OSI ]


Petite histoire...

en 1964: l'IBM 360 Autrefois, l'informatique était centralisée. De grosses machines travaillaient en temps partagé pour plusieurs utilisateurs. Ces utilisateurs avaient à leur disposition des "terminaux bêtes" dont un bon exemple serait le MINITEL.

Les ordinateurs "mainframes" pouvaient être reliés entre eux par des réseaux, l'un des premiers en France étant "Renater" un réseau reliant les facultés et centres de recherche.

Puis arrive l'ère de l'ordinateur personnel. Bien plus souple d'emploi. Chacun dispose du sien et peut en faire ce que bon lui semble. Mais cette puissance personnelle est isolée. Les utilisateurs ne peuvent plus partager leur données.

Les "informaticiens" regardent ces jouets d'un œil amusé, considérant que le "Personal Computer" n'a rien à faire dans le paysage informatique "sérieux"...

Un PC IBM...

Mais cette isolement ne va pas durer. L'informatique  prend toute sa valeur lorsque les informations traitées sont facilement communicables. Il faut réinventer le réseau, afin de connecter les ordinateurs personnels entre eux. Les constructeurs de PC s'y attellent, principalement avec IBM et Microsoft qui proposent LAN Manager et NetBEUI. Il s'agit d'une couche réseau rudimentaire mais déjà fonctionnelle sous MS DOS. Novell propose sa solution propriétaire IPX/SPX, également pour PC. De son côté Apple développe pour ses machines une solution également propriétaire: "Apple Talk"

De l'autre côté de la barrière, les "vrais ordinateurs" fonctionnent sous des OS eux aussi propriétaires, mais le réseau existe. Un système d'exploitation se développe: Unix. Chaque constructeur propose sa version, mais tous savent communiquer entre eux par le protocole TCP/IP.

Aujourd'hui? Un PC "bas de gamme" est souvent plus puissant que bien des "mainframes" d'il y a 30 ans... Tous les OS sont orientés réseau et proposent un protocole TCP/IP qui leur permet de communiquer.

Allez, pour faire rêver mes lecteurs les plus "anciens", lorsque j'étais à la fac (les années 70), le centre de calcul de Saint Jérôme disposait d'un IBM 1130, certes pas un "mainframe", juste un mini ordinateur: 3 disques durs de 5  Mo (!), 8  KWords de RAM (tores de ferrite), mais des Mots de 16 bits quand même... Si, si, vous avez bien lu. Un Apple II faisait mieux.

Celui que vous voyez à côté est la version "de base". Un seul disque dur et le minimum de mémoire de masse: 2 KWords... Notez l'absence d'écran, remplacé par un télétype à boule, bruyant et d'une grande lenteur. Sur le côté droit, observez la bande de papier perforée, pour l'archivage des données...

Pourquoi un réseau?

Toute personne ayant travaillé sur un réseau ne pourra plus s'en passer. Témoin l'extraordinaire explosion de l'Internet. Parmi les avantages les plus flagrants, citons:


Les concepts des réseaux locaux

Un réseau, nous l'avons compris, permet de connecter des ordinateurs entre eux. Mais les besoins sont très divers, depuis le réseau domestique ou d'une toute petite entreprise jusqu'aux réseaux des grandes sociétés.

Voyons deux approches fondamentalement différentes, encore que l'une peut facilement évoluer vers l'autre.

Le "Peer to Peer"

Principe

peertopeer.GIF (15738 octets)
  • Les postes de travail sont simplement reliés entre eux par le réseau. Aucune machine ne joue un rôle particulier. Chaque poste peut partager ses ressources avec les autres postes.

  • C'est à l'utilisateur de chaque poste de définir l'accès à ses ressources. Il n'y a pas obligatoirement d'administrateur attitré.

  • Dans l'exemple, chaque poste peut partager tout ou partie de sa mémoire de masse, le poste P-2 peut partager son imprimante.

 

Avantages

Il y en a quelques uns...

  • Il est facile de mettre en réseau des postes qui étaient au départ isolés.
  • Chaque utilisateur peut décider de partager l'une de ses ressources avec les autres postes.
  • Dans un groupe de travail, l'imprimante peut être utilisée par tous.

Cette méthode est pratique et peu coûteuse pour créer un réseau domestique 

 

Inconvénients

Il y en a beaucoup!

  • Chaque utilisateur a la responsabilité du fonctionnement du réseau.
  • Les outils de sécurité sont très limités.
  • Si un poste est éteint ou s'il se "plante", ses ressources ne sont plus accessibles
  • Le système devient ingérable lorsque le nombre de postes augmente.
  • Lorsqu'une ressource est utilisée sur une machine, l'utilisateur de cette machine peut voir ses performances diminuer.

Conclusions

Ce type de réseau n'offre de réel intérêt que dans une configuration particulière:


Le "Client / Serveur"

Principe

Positionnez le curseur sur la zone souhaitée pour avoir la légende.

Serveur du réseau Mémoire de masse partagée
Imprimantes partagées
Modem ou Routeur pour l'accès distant
Clients du réseau

 

Avantages

Il y en a beaucoup...

  • Les serveurs sont conçus pour le partage de ressources et ne servent pas de station de travail. Il suffit de les dimensionner en fonction de la taille du réseau et du nombre de clients susceptibles de s'y connecter.
  • Les systèmes d'exploitation de serveurs proposent des fonctions avancées de sécurité que l'on ne trouve pas sur les réseaux "peer to peer".
  • Ils proposent également des fonctions avancées à l'usage des utilisateurs comme par exemple les profils itinérants qui permettent à un utilisateur (sous certaines conditions) de retrouver son environnement de travail habituel, même s'il change de poste de travail.
  • Les serveurs étant toujours en service (sauf en cas de panne...), les ressources sont toujours disponibles pour les utilisateurs.
  • Les sauvegardes de données sont centralisées, donc beaucoup plus faciles à mettre en oeuvre.
  • Un administrateur gère le fonctionnement du réseau et les utilisateurs n'ont pas à s'en préoccuper
 

Inconvénients

Il y en a quelque-uns tout de même...

  • La mise en place d'un tel réseau est beaucoup plus lourde qu'un cas simple de "poste à poste"
  • Elle nécessite Impérativement la présence d'un administrateur possédant les compétences nécessaires pour faire fonctionner le réseau.
  • Le coût est évidemment plus élevé puisqu'il faut la présence d'un ou de plusieurs serveurs.
  • Si un serveur tombe en panne, ses ressources ne sont plus disponibles. Il faut donc prévoir des solutions plus ou moins complexes, plus ou moins onéreuses, pour assurer un fonctionnement au moins minimum en cas de panne.

Conclusions

Ce type de réseau est évidemment le plus performant et le plus fiable. Vous l'aurez compris, ce n'est pas la solution la plus simple pour un réseau domestique, c'est cependant ce type d'architecture que l'on retrouve sur les réseaux d'entreprise, qui peut parfaitement supporter plusieurs centaines de clients, voire plusieurs milliers.


Et pour aller plus loin...

Par définition, un réseau local s'étend sur une petite surface (un câblage simple peut rarement dépasser quelques centaines de mètres). Les entreprises doivent souvent créer des réseaux beaucoup plus grands.

La fibre optique permet des distances plus importantes, mais il n'est pas facile, même s'il devient possible d'obtenir les autorisations nécessaires, de creuser des tranchées dans le domaine public pour passer son réseau. Dans ces cas là, il reste tout de même plus simple de faire appel aux services d'entreprises spécialisées, France Télécom par exemple. Le moyen le plus rudimentaire et le moins performant étant d'utiliser une ligne téléphonique analogique avec un modem à chaque bout. (Ne rigolez pas, certaines connexions entre "gros ordinateurs" se faisaient avec des modems RTC à 9600 bps i n'y a pas si longtemps). 

Il est clair que les besoins actuels sont sans commune mesure. Les opérateurs de communications en sont à ce point convaincus qu'ils déploient des efforts énormes pour augmenter leur capacités de transport d'informations. Des centaines de kilomètres de câble ou de fibre optique sont mis en place chaque jour dans le monde, le long voies ferrées, des autoroutes, à côté des conduites d'eau et d'électricité. Des projets de communication par satellites en orbite basse sont en cours de réalisation malgré les déboires connus du projet "Iridium" et les canaux hertziens ne sont pas délaissés non plus. Tout cela pour faire de la téléphonie bien sûr, mais également pour offrir des "tuyaux" pour les réseaux informatiques à venir.

Quelques technologies "au goût du jour"...

En plus des "LS", Lignes spécialisées dont le prix de la location est totalement hors de portée d'un particulier, voire d'une petite entreprise, d'autres solutions existent. Il n'est pas question les les détailler ici, voyons tout de même les possibilités de connexion à l'Internet "haut débit" actuellement accessibles.

Adsl.jpg (46174 octets) La technologie "ADSL" qui permet, en utilisant les structures téléphoniques actuelles de transmettre de l'information à haut débit. Non seulement la téléphonie "classique" mais aussi les données numériques.
Le câble télévision, qui n'a jusqu'à ce jour connu qu'un intérêt très limité, fortement concurrencé par les satellites.

Le câble  pourrait bien cependant survivre grâce à la distribution de données numériques interactives.

Dans le domaine de l'Internet à haut débit, il semble bien que le câble ne soit pas en état de rivaliser avec l'ADSL. Bien que la technologie fonctionne maintenant correctement, le problème du volume de données en voie remontante (upload) paraît être insoluble, obligeant les câblo opérateurs à imposer des limites aux volumes d'upload des abonnés.

Cable.jpg (63115 octets)

Dans l'illustration ci dessus, il est dit que la liaison entre le centre de distribution et l'utilisateur final est une liaison Ethernet, ce serait plutôt actuellement de l'ATM.

La boucle locale radio, qui, pour l'instant, semble revoir fortement ses ambitions à la baisse et se cantonner à des offres proches des lignes spécialisées.


Accueil ] Suivante ]