Le stockage des données

Aujourd’hui, un article   sur les différents moyens de stockage.

Introduction:

De nos jours, on peut affirmer que l’informatique a pris une place considérable dans nos sociétés. Ainsi, le traitement numérique de l’information explique en grande partie les besoins croissants en stockage de données. Ceci est vrai autant pour les particuliers (dans des domaines comme l’Internet, les loisirs, le multimédia,…) que bien évidemment pour les professionnels (dans des domaines comme le développement, la compatibilité,…).

Le stockage est une des bases nécessaires à l’utilisation de l’informatique que ce soit pour conserver des données ou bien encore pour utiliser un ordinateur puisque le système d’exploitation est souvent contenu dans un disque dur. Ces besoins de stockage sont en constante évolution, et on pourrait actuellement discerner quatre grandes tendances:

– la non volatilité des mémoires (la non volatilité caractérise l’aptitude d’une mémoire à conserver les données lorsqu’elle n’est plus alimentée électriquement);

– la recherche de consommations énergétiques réduites;

– des capacités de stockage sans cesse plus importantes;

– enfin, une exigence de sécurité accrue.

1) Quels sont les différents types de supports mis à notre disposition ?

Préambule: le choix entre les différentes technologies à notre disposition doit tenir compte de différents critères que l’on pourra tenter de regrouper de la façon suivante:

– la recherche de la sécurité, c’est à dire la sûreté des sauvegardes;

– les fonctionnalités que la solution de stockage propose en terme de volume, de vitesse, mais aussi de consommation d’énergie;

– enfin, et non le moindre des critères, le coût du stockage; ce qui est encore plus vrai dans le cadre de l’entreprise.

Bien que non récents, les chiffres suivants donnent une idée des enjeux qui se cachent derrière; ainsi, en 2002, le coût du stockage d’un Go de données était de 100$ pour un disque dur, de 50$ pour une DRAM, de 10$ pour un disque optique et de 0,5$ pour une bande magnétique.

Ceci étant posé, nous allons voir quels sont les différents types de support à notre disposition. On évoquera rapidement le stockage physique qui est aujourd’hui obsolète pour se concentrer sur les trois autres types de support qui sont aujourd’hui les plus fréquemment utilisés.

Rappel historique: on peut distinguer depuis le début de l’informatique quatre méthodes de stockage qui se sont succédées ou se côtoient encore:

– 1.1) Le stockage physique apparaît dans les années 1890 et se base sur l’usage de cartes (ou de rubans) perforés qui permettent de faire un contact lorsque le balai de lecture passe dans un trou. Mais les capacités du support sont moindres et les données ne peuvent être modifiées, ce que permet le stockage magnétique.

– 1.2) Le stockage magnétique apparaît dans les années 1950, et se base sur l’orientation de particules ferriques grâce à l’interaction électromagnétique. C’est la méthode qui anime nos disques durs actuels.

– 1.3) Le stockage optique est quant à lui plus récent et apparaît dans les années 1980. Il fonctionne sur le principe d’alvéoles à la surface d’un disque qui modifient la manière dont un laser est réfléchi.

– 1.4) Enfin, la mémoire flash apparaît à la fin des années 1980 (1988): elle se base sur le fait que des transistors à grille flottante sont chargées ou non en électrons. Il est plus ou moins entendu que dans un court terme (dès les coûts auront baissé) les supports à base de mémoire flash auront remplacé les disques durs « classiques ».

1.1) Le stockage physique.

1.1.1) Comment se présente le système ?

C’est la première méthode de stockage utilisée en informatique (cartes et rubans perforés; les données sont matérialisées sous forme de trous). Elle est inventée en 1890 par Hermann Hollerith (ingénieur américain). Elle est utilisée jusqu’à a fin des années 1970. Les rubans apparaissent en 1939 grâce à IBM.

1.1.1.1) Des cartes et des rubans.

– La carte est en papier bristol (coupée dans un coin pour connaître le sens de lecture); elle est percée de trous rectangulaires (tailles différentes) disposés en 13 lignes (une est réservée au déplacement de la carte) sur 80 colonnes.

Chaque colonne reçoit une lettre/chiffre sous forme codée:

– une perforation pour un chiffre;

– deux perforations pour les lettres;

– trois perforations pour les caractères spéciaux.

– Les rubans sont perforés sur 7 à 9 lignes et sur toute la longueur de la bande. Ils se présentent sous forme de rouleaux/accordéons, prennent moins de place mais nécessite de modifier le ruban entier rien que pour une modification.

1.1.1.2) Des lecteurs.

De nombreux outils existent:

– La traductrice qui imprime les données contenues sur une ou plusieurs cartes perforées.

– L’interclasseuse qui trie les cartes et diminue le temps de tri.

– La calculatrice calcule à partir des données lues sur une carte et y inscrit les résultats.

– La perforatrice inscrit les informations sous forme de trous sur le support.

On empile les cartes dans l’ordre voulu puis elles sont lues (ou percées) une à une par l’appareil .Les données sont retranscrites sous forme de lettres/chiffres sur un écran (la plupart du temps, elles sont imprimées). Le processus est le même pour les rubans perforés (différence: avec la carte perforée, les données défilent l’une après l’autre; elles se déroulent avec le ruban).

1.1.2) Quels sont les principes du fonctionnement du stockage physique ?
1.1.2.1) Un fonctionnement en écriture.

Le fonctionnement des rubans perforés ressemble fortement à celui des cartes perforées. On portera son intérêt sur les cartes.

Elles comportent 80 colonnes dont chacune contient un caractère. Chaque colonne dispose de 12 lignes numérotées de haut en bas sur lesquelles on

peut percer un trou.

Chaque combinaison de perforations sur une colonne correspond à un symbole déterminé.

Exemple: on obtient le chiffre 8 en perforant la ligne du 8 ; la lettre A s’obtient en perforant les lignes du 1 et du 11.

La perforation d’une carte de 12 lignes sur 80 colonnes est réalisée manuellement ou bien percés un à un. L’appareil utilise directement les informations acquises:

– soit en lisant directement la carte (principe de la copie);

– soit en prenant les informations données par l’utilisateur (grâce à un clavier ou bien un télégraphe dans les premiers temps). Descendent ensuite les aiguilles spécifiques aux caractères demandés, perçant ainsi uniquement les trous voulus.

1.1.2.2) Un fonctionnement en lecture.

Les moyens de lecture sont divers:

–mécaniques : une pointe tombe dans un trou situé à un emplacement précis (et à un moment précis) ; le mouvement de la pointe actionne la commande sélectionnée.

– pneumatiques : le trou permet à l’air sous pression d’agir sur la commande.

– électriques : un contact est établi à un emplacement et à un moment précis, le courant électrique actionne la commande à l’aide d’un électro-aimant.

Les contacts électriques sont les plus utilisés (ils permettent

de mettre en mémoire les données). De fait, les contacts mécaniques/pneumatiques apportent le même résultat.

Exemple: pour faire un 2, on perce la ligne des 2 par un trou sur une seule colonne. Pour un A, on perce la ligne des 7 et des 11 sur la même colonne.

Les cases blanches permettent d’ajouter des caractères spéciaux.

La lecture est exploitée de différentes manières, ou stockée en mémoire pour une exploitation ultérieure, d’où l’utilité de la mémoire à condensateurs.

Quinze plots (en laiton) de condensateurs (un condensateur pour chaque plot) sont placés sur un cylindre. Ce dernier est associé à un balai de

lecture, un balai d’écriture et un balai servant à réinitialiser la mémoire (c’est à dire enlever la mémoire présente puisque que le condensateur est soit chargé, soit ne l’est pas).

Pourquoi utiliser un cylindre?

Pour garder en mémoire les données, on utilise des dizaines de condensateurs, donc plutôt que d’arriver à une plaque de quelques kilomètres, on utilise un cylindre qui lui permet un éternel recommencement.

Avant l’inscription de données sur une mémoire à condensateurs, l’appareil doit lire les informations sur la carte perforée. Pour cela la carte passe dans le pas de lecture, puis elle est entraînée par des galets et commence la lecture par la ligne des 9, la carte passe entre un balai et un rouleau dont l’alimentation en courant pulsé est faite par un rupteur. Celui-ci est synchronisé avec les positions possibles des perforations qui, si elles existent, donnent naissance à des impulsions de lecture.

Ces impulsions existent quand un trou est repéré par le balai, c’est à dire quand il est en contact avec une roue, laissant ainsi le courant circuler: l’information est alors crée.

Cette information est dirigée vers un premier relais, puis envoyée vers un balai d’enregistrement où elle est inscrite sur un condensateur au hasard. Le second relais détecte un condensateur chargé de réacquérir les informations qui vont se diriger vers la sortie mémoire.

Si le premier condensateur perd une partie de sa charge, il renvoye une impulsion toute fraîche au condensateur du cycle suivant (c’est le « refreshing » des mémoires de nos PC) mais cela ne se fait pas avec des relais.

Si le balai ne détecte aucun trou, aucune information n’est envoyée vers les relais. En effet, le balai de lecture de la carte n’est pas en contact avec le cylindre de lecture, donc aucun courant ne circule.

Au total, le système des cartes et rubans perforés repose sur une logique binaire, c’est à dire s’il y a un trou ou pas.

1.1.3) Quelles sont les limites du stockage physique ?
1.1.3.1) Les avantages du système.

C’est la première fois que l’on stocke des données sur un autre support que le papier. Les feuilles pouvant se dégrader, on devait les dupliquer, e parfois les écritures n’étaient pas toujours lisibles de tous pour écrits manuscrits.

On pouvait garder des données en bon état malgré de nombreuses utilisations. Pour le stockage physique les informations étaient gardées tant que les trous restaient en bon état.

La première utilisation des cartes perforées étaient le fonctionnement des métiers à tisser lyonnais de Jacquard. Elles furent ensuite utilisées pour le recensement de la population au Etats-Unis (Hollerith)puis ailleurs.

1.1.3.2) Les inconvénients du système.

Le premier problème de ce système repose sur la taille des cartes et longueur des rubans, parfois plusieurs mètres pour ces derniers.

De plus ces systèmes ne contiennent que très peu de données par rapport à leur taille comparés aux systèmes actuels (pendant longtemps, c’était le seul moyen de stocker efficacement des informations). Les appareils de traitement des données prenaient la place d’une commode voire d’une pièce entière.

Plus anecdotique peut être, le bruit des perforations, fait par les perforeuses n’était pas sans nuisances (certaines personnes parlant de « tictic » infernal des aiguilles).

1.1.3.3) Quel avenir pour ce système ?

C’est un stockage qui a beaucoup évolué depuis ses débuts, mais qui n’est plus utilisé de nos jours. Ils ont été remplacés par des systèmes beaucoup moins encombrants pour une capacité de données beaucoup plus élevée.

1.1.4) En guise de bilan et de conclusion.

Avec le XIXème et l’industrialisation, c’est l’ère de la technologie mécanique et de la disponibilité des énergies comme l’électricité. A la multiplication des machines dans les usines répond un besoin plus pressant de les automatiser pour créer des « processus industriels ».

Pour accéder à cette automatisation, il faut :

– enregistrer dans une mémoire une suite de commandes spécifiques à une machine et à un travail précis,

– relire automatiquement et de façon récurrente cette suite de commandes.

Les applications alors connues du grand public sont l’orgue de barbarie, les automates, le métier à tisser Jacquard.

Hermann Hollerith, obtient le contrat pour le dépouillement du recensement de 1890 aux Etats-Unis car son invention, la carte perforée permet de mémoriser la masse des informations à traiter.

Son principe de fonctionnement est le suivant:

– la carte passe horizontalement devant le poste de lecture et la valeur du caractère est définie par l’instant auquel il est lu.

– il regroupe sur une seule carte des données référencées par un argument commun (l’identifieur).

1.2) Le stockage magnétique.

Ces méthodes apparaissent au début des années 50 avec le ruban magnétique vite supplanté en 1956 par le disque dur (invention d’IBM). Cette méthode est également utilisée par les disquettes(elles se déclinent en plusieurs formats d’où nécessité d’un lecteur particulier). Aujourd’hui, les disques durs perdurent,…, mais les disquettes disparaissent au profit des clés usb (elles utilisent de la mémoire flash)

1.2.1) Présentation des différents systèmes.
1.2.1.1) Le disque dur.

On n’a eut de cesse depuis son invention d’accroître sa capacité de stockage. Ainsi, en 50 ans, on est passé de 5Mo à 1To, tout en réduisant dans le même laps de temps, le volume du système (de 24 pouces à 1,8 pouce).

Un disque dur se compose de 2 parties:

– Plusieurs plateaux solidaires autour d’un axe, chacun divisés en deux surfaces. Chaque plateau est recouvert de couches magnétiques où l’on stocke les données.

– Le disque dur est aussi équipé d’un bras appelé « tête de lecture ». Elle permet de lire les données des plateaux.

Les disques durs sont soit internes à l’unité centrale soit externes.

1.2.1.2) Les différents supports amovibles.

Jusqu’à l’invention de la clé usb, la disquette reste relativement incontournable. Elle utilise la technique du magnétisme et comme pour le disque dur, on doit cette invention à IBM.

La 1ère disquette a été créé en 1971: sa surface était de 8 pouces soit environ 2 fois plus qu’aujourd’hui ( 3,5 pouces )avec une capacité de stockage de 1,44Mo.

En 1994, l’apparition des disques zip constitue une première évolution,avec un stockage possible de 100 à 750 Mo selon les modèles (on a eu des déclinaisons avec des capacités plus importantes des mêmes types de support: les jazz jusqu’à 2Go et les rev de 90Go).

Une disquette possède la même composition qu’un disque dur (elle

contient aussi un plateau que l’on compare à un disque):

– d’un boîtier de protection;

– d’un disque magnétique;

– d’un volet de protection;

– d’un disque d’entraînement.

1.2.2) Quels sont les principes du fonctionnement du stockage magnétique ?

Un disque magnétique se compose de plusieurs couches:

-une base, autrefois en aluminium, mais de plus en plus souvent en verre.

-une couche d’oxyde magnétique (Fe3O4) qui permet d’enregistrer les données.

-une couche antistatique pour éviter que les données magnétiques ne se détériorent.

-une couche lubrifiante pour protéger le disque lors du passage de la lecture à l’écriture.

Les données sont inscrites sur ces disques magnétiques (un seul pour les disquettes et plusieurs pour les disques durs).

1.2.2.1) L’écriture des données.

Un plateau tourne à l’aide d’un moteur, ce système est associé à une tête d’écriture/lecture qui n’est pas en contact avec les couches supérieures du plateau mais qui est en suspension (à dix nanomètres au-dessus contre vingt-cinq il y a quinze ans pour les disques durs).

La tête de lecture se compose d’une bobine de cuivre et de deux éléments magnétiques (un pôle positif et un pôle négatif).

Lors de la première utilisation du disque, les particules de fer sont dispersées et désordonnées à la surface du disque.

En mode écriture, la tête inscrit des bits en orientant les particules de fer dans un sens ou dans l’autre. Pour cela, la bobine reçoit un courant électrique de l’ordinateur. Suivant le sens de passage du courant , la polarité des aimants change. Les particules de fer sont en fait de

minuscules paillettes de fer avec à chacune de leur extrémité un pôle positif et un pôle négatif.

Quant les électro-aimants s’arrêtent au dessus d’une particule, les deux éléments entrent en interaction électrostatique et la particule de fer s’oriente en fonction des pôles de la tête.

Ainsi, un bit (0 ou 1) est composé de deux particules. Si les particules ont la même orientation, le bit a pour valeur 0 et inversement.

Les données sont organisées sur le plateau en pistes (de même centre), elles-mêmes divisées en secteurs. A chaque fois que des données sont inscrites, leur emplacement est indexé dans une table des matières ce qui permet à la tête de lecture de se rendre directement au bon emplacement lors de la lecture des données.

1.2.2.2) La lecture des données.

En mode lecture, c’est le processus inverse qui se produit. La bobine n’est plus alimentée en électricité. Les particules de fers sont polarisées, elles émettent donc un champ magnétique. Lors du passage de la tête au-dessus de ce champ, un courant est crée dans le bobinage. L’ordinateur analyse le sens de ce courant et est alors capable d’interpréter l’information (0 ou 1).

1.2.3) Quelles sont les limites du magnétisme ?
1.2.3.1) Quels sont les avantages ?

Le principal réside dans le stockage d’un grand nombre de données dans un espace restreint tout en ayant une bonne fiabilité de conservation de ces dernières. De plus, les coûts sont relativement modérés et la vitesse d’accès aux données est élevée.

1.2.3.2) Quels sont les inconvénients ?

Malgré de nombreux avantages, cette méthode atteint des limites qui ne sont pas que physiques.

Ainsi, pour augmenter la quantité de données stockables, il faut diminuer la taille des particules de fer pour pouvoir en disposer plus à la surface des plateaux.

Or, la taille minimale des bits (deux particules de fer) est de 100 nanomètres. En dessous de cette taille, les perturbations de température sont trop importantes pour que les données puissent se conserver.

De plus, la lecture ou l’écriture de données magnétiques nécessite une partie mécanique (intégrée pour le disque dur ou extérieure pour la disquette). La présence de ces parties mécaniques limite le transport des données, le moindre choc pouvant endommager les données.

Enfin, il est conseillé de défragmenter les disques pour augmenter la rapidité de lecture et d’écriture des données. En effet, les données enregistrées ne changent pas de position jusqu’à leur suppression, certains fichiers peuvent alors être placés dans différents blocs: donc ne pas se suivre, d’où la lenteur d’ouverture de certains fichiers.

Cependant la défragmentation n’est possible que sur les disques durs car la disquette est un système trop obsolète.

1.2.3.3) Quel avenir pour le système ?

Actuellement, les disquettes ne sont pratiquement plus utilisées, elles ont été remplacées par des supports optiques ou utilisant la mémoire flash.

Les disques durs demeurent le seul système capable de stocker de nombreux Go dans un espace restreint. En effet, aujourd’hui la capacité de stockage atteint et dépasse plusieurs To grâce à une association entre plusieurs disques durs (systèmes RAID,…). Il est toutefois impossible d’augmenter la rapidité de lecture et d’écriture à cause de la mécanique qui a atteint ses limites.

La mémoire flash se révèle comme un concurrent ayant des avantages beaucoup plus intéressants, comme la résistance aux chocs ou bien la rapidité de lecture.

1.2.4) En conclusion.

Le magnétisme c’est l’interaction qui apparaît entre des charges électriques en mouvement. On a utilisé ce procédé pour stocker des données informatiques, rendant alors le disque dur surtout et la disquette irremplaçables.

En effet les disques durs ont révolutionné le monde de l’informatique.

Le premier avait une capacité de 30 Mo. Il contenait 240 000 000 fois plus de données qu’une carte perforée de 8 bits (carte perforée la plus développée).

Les disquettes 8 pouces, 5 pouces 1/4 et 3 pouces 1/2 peuvent respectivement contenir 800 Ko, 1,2 Mo et 1,44 Mo.

Les disques magnétiques utilisent le système binaire, c’est à dire des données sous forme de 0 et de 1 inscrites sur une surface d’oxyde de fer qui se polarise.

Actuellement les capacités de stockage, utilisant le magnétisme, atteignent plusieurs To sur disque dur, cependant les disquettes, du fait de leur faible capacité de stockage, disparaissent.

1.3) Le stockage optique.

Cette méthode a bénéficié d’un développement conjoint à partir des années 1950 par Sony, Philips et Hitachi. En 1982, le CD succède aux disques vinyles comme support musical. Le CD-ROM (Compact Disc Read- Only Memory) apparaît en 1984, il permet l’utilisation informatique du disque compact. Le DVD (Digital Versatile Disc) remplace le CD sans le faire disparaître (1995). Comme pour le CD-ROM, le DVD-ROM va être utilisé dans l’informatique. Il permet une plus grande capacité de stockage. Viennent ensuite le HD-DVD (haute définition; aujourd’hui abandonné) et le Blu-Ray disc, développés en 2003: ils peuvent contenir plus de 30 Go de données.

1.3.1) Présentation du système.

– Un disque optique se compose :

– d’un support en plastique transparent (polycarbonate, 1,2mm d’épaisseur);

– d’une (ou de plusieurs pour les DVD doubles couches) fine couche d’aluminium réfléchissante;

– d’une fine couche de laque protectrice;

– d’un trou de 15mm de diamètre au centre pour permettre le centrage dans le lecteur;

– les CD gravables comportent une couche de colorant organique supplémentaire.

– Le lecteur de disque se compose principalement:

– d’un chariot qui permet de déplacer la lentille;

– d’une tête de lecture: il s’agit d’un laser (rouge pour le CD-Rom et le DVD-ROM, bleu pour le Blu-Ray et le HD-DVD);

– d’un dispositif de miroirs réfléchissants;

– d’une cellule photoélectrique;

– d’une lentille qui concentre le rayon précisément sur le disque.

1.3.2) Fonctionnement du stockage optique.
1.3.2.1) Fonctionnement en lecture des données.

Contrairement au stockage magnétique, les disques optiques n’ont qu’une seule piste qui forme une spirale sur toute la surface du disque.

Une fois le disque inséré dans le lecteur, il est orienté grâce à un moteur pas à pas. Le laser envoie un rayon lumineux qui est dévié par des miroirs pour finalement aboutir à la surface du CD. Les

données se présentent sous la forme d’irrégularités (alvéoles). Le laser est modifié (changement de sa longueur d’onde) lorsqu’il est réfléchi par un creux de sorte que son intensité lumineuse diminue.

Le rayon aboutit à la cellule photoélectrique grâce aux miroirs. La cellule mesure alors l’intensité lumineuse du laser. Le passage d’un creux à un plat provoque une modification du signal qui représente un bit. La longueur de l’alvéole permet la répétition des bits (le bit est répété un nombre de fois proportionnel à la longueur du plat ou du creux).Les bits sont répétés toutes les 231,4 nanosecondes si le signal n’est pas modifié.

Il existe des DVD doubles couches (DVD-DL) qui permettent de stocker deux fois plus de données sur un même DVD. Ils possèdent une couche réfléchissante (en argent) et une semiréfléchissante (en or).Le principe de lecture des données est le même que pour les autres médias.

Pour lire les données sur la deuxième couche, on utilise un rayon de plus forte intensité qui va traverser la couche semi réfléchissante et permettre ainsi la lecture des données sur la couche réfléchissante.

1.3.2.2) Fonctionnement en écriture des données.
1.3.2.2.1) La méthode industrielle: les cédéroms pré-enregistrés.

Les cédéroms achetés dans le commerce contiennent déjà des données. Elles sont inscrites grâce à une méthode dite de pressage. Un moule contenant le motif inverse des données à enregistrer est d’abord créé. On injecte ensuite dans ce moule du polycarbonate, les alvéoles se retrouvent ainsi à la surface du disque créé. Une fine couche métallique (aluminium) est

ensuite coulée sur la base en polycarbonate épousant ainsi les formes des alvéoles. Enfin on applique une couche protectrice sur le cédérom pour éviter toute dégradation prématurée.

1.3.2.2.2) La méthode pour les particuliers: l’inscription de données sur des disques inscriptibles.

Depuis 1988 (date d’apparition des CD-R), les particuliers peuvent enregistrer leurs propres données. Pour cela, les médias utilisés contiennent une couche de colorant organique supplémentaire entre la base de polycarbonate et la couche métallique. La gravure de ces médias

nécessite un laser 10 fois plus puissant que celui nécessaire à la lecture. Le laser peut « brûler » la couche organique par réflexion, c’est à dire la marquer. Lorsque cette couche est brûlée par le laser,

elle ne réfléchit plus bien le laser et se comporte comme « un creux ». A l’inverse, quand la couche est intacte, elle réfléchit le laser parfaitement comme s’il s’agissait « d’une bosse ».

1.3.2.2.3) L’écriture et le formatage des données sur des disques réinscriptibles (CD-RW).

Les médias ré-inscriptibles contiennent une couche à changement de phase. Cette couche a une structure cristalline lorsqu’elle est chauffée (par rayonnement) à 200° puis refroidie. Chauffée à 500° par un laser plus puissant, cette couche devient amorphe (non-cristalline). Sous sa forme

cristalline, la couche reflète davantage la lumière que sous sa forme amorphe. Ainsi, ces deux états se comportent comme les creux et les bosses des disques traditionnels en réfléchissant plus ou moins le rayon laser. En chauffant la couche au-dessus du point de cristallisation mais en-dessous du point de fusion, les atomes reviennent à l’état ordonné, on retrouve ainsi une phase cristalline.

1.3.3) Les limites du stockage optique.
1.3.3.1) Les avantages du stockage optique.

Ce support permet une bonne conservation des données et ne s’use pas car il n’est pas lu grâce à un contact mécanique mais par un laser, on peut ainsi conserver des données pendant une centaine d’années pour les CD pressés (tout dépend de la qualité du produit et du soin apporté par son utilisateur). De plus, on peut transporter facilement une quantité assez importante de données dans un espace restreint. Actuellement les médias sont à un prix relativement abordable (environ 0,40 euros l’unité).

1.3.3.2) Les inconvénients du stockage optique.

Les médias sont fragiles. En cas de mauvaise manipulation, les rayures peuvent influer sur les bosses et les creux des galettes ce qui

empêchera la lecture des données, quant aux torsions, elles peuvent briser le support.

De plus, les données ne sont pas archivées à vie du fait de l’altération de la couche organique pour les CD inscriptibles: seulement 5 à 10 ans selon la qualité des médias. Et les CD-R se dégradent à force d’être exposés à la lumière notamment sous l’action des ultraviolets ainsi que sous l’action de la chaleur.

En outre, chaque nouvelle technologie utilisant le stockage optique nécessite l’emploi d’un nouveau lecteur du fait de l’utilisation d’un laser différent. Certains lecteurs « hybrides », permettent la lecture des CD et DVD car ils disposent de plusieurs lasers différents mais ils sont coûteux.

1.3.3.3) Quel avenir pour le stockage optique ?

Cette méthode a encore de l’avenir. L’industrie du cinéma utilise des DVD pour commercialiser les films.

De plus, cette méthode est en constante évolution. Ainsi, de nouvelles technologies apparaissent comme le Blu-ray et le HD-DVD (aujourd’hui abandonné) utilisant un laser de longueur d’ondes différentes; le rayon est ainsi plus précis, ce qui permet de stocker plus de données que sur un DVD ou un CD tout en conservant la même surface d’écriture.

Le disque holographique (que nous traiterons en fin de rapport) est encore en phase de développement, il permettra de stocker plusieurs To en exploitant le principe de l’holographie. On peut dire que cette méthode est à la pointe de la technologie.

1.3.4) Pour conclure.

Le stockage optique est né avant la disquette en 1984. Il permet de stocker environ 490 fois plus de données que la disquette 3 1/2 pouces.

On utilise le système binaire. La variation des bits (0 ou 1) est matérialisée par l’intensité de lumière réfléchie.

A sa sortie, le CD-ROM ne permettant pas aux particuliers de stocker leurs propres données, cette méthode servait uniquement à des fins commerciales (vente de logiciels…).

Dès 1988 avec le CD inscriptible, ce procédé s’est démocratisé: il permet aux particuliers d’archiver de grandes quantités de données sur un support amovible. Cela s’explique par des avantages multiples tels la durée de vie conséquente des données stockées, la quantité assez importante de données stockables ainsi que le prix modéré.

De nos jours, le stockage optique est devenu incontournable et très répandu. Cette méthode est en constante évolution car le besoin d’augmenter les capacités de stockage la stimulent.

 

1.4) La mémoire flash.

La méthode de stockage flash apparaît à la fin des années 80. Elle doit son nom à sa rapidité de lecture et d’écriture. Il existe deux types:

– la mémoire NOR crée par Intel en 1988;

– la mémoire NAND crée par Toshiba en 1989.

A ce jour, c’est la dernière méthode de stockage de données informatiques inventée.

La mémoire flash est un type d’EEPROM ( Electrically-Erasable Programmable Read Only Memory ), c’est à dire une mémoire effaçable électriquement et se réécrivant à volonté. Elle posséde les caractéristiques d’une mémoire vive mais les données ne disparaissent pas lors de la mise hors tension (mémoire non volatile).

Elle permet des transferts de données très rapides.

Elle ne craint ni poussière ni rayures ce qui lui offre un avantage au niveau de la fiabilité par rapport à d’autres supports (CD ou disquette). On la retrouve dans plusieurs systèmes de stockage : clé USB, baladeur MP3, cartes mémoires(CompactFlash, Memory Stick, SmartMedia), mais aussi disques SSD.

1.4.1) Présentation des systèmes.
1.4.1.1) La clef USB.

Elle utilise la mémoire flash, elle est inventée dans les années 1990. C’est un petit périphérique externe permettant de stocker et de transférer des données en assez grandes quantité et très facilement. Il succède à la disquette.

Elle utilise le format USB 2.0 (Universal Serial Bus) qui permet à la clé d’être alimentée en énergie lorsqu’elle est branchée à un ordinateur, il n’y a donc pas de batterie.

Une clé USB possède à ce jour une mémoire de 1 ou 2 Go en moyenne (voire beaucoup plus)et peut conserver des documents pendant de nombreuses années.

C’est le même système présent dans les lecteurs mp3 (avec un port audio supplémentaire) . Comme la clé usb, à l’aide d’un connecteur USB ou d’un câble USB on le relie à l’ordinateur et on transfère les données conservées dans sa coque plastifiée.

1.4.1.2) Les cartes Flash.

Inventées en 1994, elles possèdent de 8 Mo à 16 Go de mémoire. Elles sont nombreuses comme la Compact Flash, la Memory Stick, la Start Media… Elles sont surtout utilisées pour stocker des données de périphériques tels que les appareils photos numériques, les caméscopes et certaines consoles de jeux-vidéos. Contenu dans un boitier de faible dimension, les

cartes flash sont généralement constituées d’un contrôleur de mémoire et de mémoire flash.

1.4.1.3) Les disques SSD (Solid State Disk).

Les disques durs utilisent eux aussi la mémoire flash mais on en est encore à une technologie encore chère et sur laquelle, il y a encore un manque de recul.

On peut penser que ce sont les remplaçants de nos disques durs actuels.

En effet malgré des performances indéniables en terme de consommation, de silence (ces disques ne contiennent aucune pièce mécanique !) mais aussi de temps d’accès très faibles, les SSD ne sont pas dénués d’inconvénients comme le coût et la faiblesse des capacités. Cependant, les prix ont tendance à baisser et sont devenus abordable pour la majorité..

1.4.2) Comment fonctionne le stockage flash ?

Il est basé sur le même principe que la RAM (Random Acess Memory), la mémoire vive (données qui sont conservées uniquement pendant la mise sous tension de l’ordinateur). Comme la RAM, le stockage flash a pour principe la réunion de nombreux circuits intégrés bâtis sur une même structure: une matrice ( un tableau composé de nombreuses cellules mesurant quelques millionièmes de millimètres).

Chaque cellule de la matrice est ainsi chargée électriquement. Dans le langage binaire ils représenteront les bits (0 ou 1).

Pour stocker les données, la mémoire flash possède dans chacune de ses cellules un transistor spécial dit à « grille flottante » qui est composé d’oxyde de silicium, d’une grille flottante, d’une grille de contrôle, d’une source et d’un drain. Le transistor joue ici un double rôle. Il stocke à la fois les électrons à la manière d’un condensateur (sur la grille flottante) et joue aussi le rôle d’une vanne fermée qui ne laisse plus passer le courant (lorsque la grille est saturée).

(les transistors utilisés dans les cellules de mémoire sont miniaturisés).

1.4.2.1) Un fonctionnement en écriture des données.

– C’est par application de tensions au niveau des cellules que l’on écrit ou efface les données. Quant aucune donnée n’est stockée, les électrons circulent librement entre les transistors.

Pour écrire des données, on applique une tension de 12 volts sur le drain et sur la source. Les électrons sont alors attirés dans la grille flottante, passent dans l’oxyde et se font « emprisonner » dans la grille flottante grâce au dit « effet tunnel ».

Lorsque la grille flottante est chargée d’électrons, le transistor est dit bloqué et correspond au bit 0. A l’inverse, quand la grille ne contient pas d’électrons, le transistor est dit passant, c’est un 1.

– Pour passer d’un 0 (transistor bloqué) à un 1 (transistor passant), on applique une tension de 12V uniquement sur la source. Cela attire les électrons hors de la grille flottante (ces derniers vont continuer leur chemin vers le drain). Il arrive qu’une partie infime des électrons ne parvienne pas à évacuer la grille flottante, cependant, cela ne modifie pas le fonctionnement du transistor qui est désormais passant.

1.4.2.2) Un fonctionnement en lecture des données.

Pour lire des données, on applique une tension (allant de 1,8 à 5V suivant les modèles de transistors et les constructeurs) sur la grille de contrôle.

Une même tension est appliquée entre la source et le drain. Lorsque la grille flottante est chargée d’électrons, elle s’oppose au passage du courant entre la source et le drain de sorte qu’il n’y a que très peu d’électrons qui parviennent au drain, on a un 0. Si la grille n’est pas chargée d’électrons, le courant circule librement entre la source et le drain, on a un 1.

Remarque: il existe deux types de mémoire flash. Elles se distinguent par une méthode de lecture différente.

1.4.2.3) Deux types de mémoire flash.
1.4.2.3.1) Le flash NOR.

Cette méthode tire son nom de la porte logique nor (non-ou). Elle donne un accès direct à n’importe quelle cellule de la matrice. Elle est principalement utilisée comme mémoire ne nécessitant pas à être effacée ( microcodes servant à effectuer des opérations basiques dans les systèmes courants comme un lecteur dvd…).

1.4.2.3.2) Le flash NAND.

Cette méthode tire son nom de la porte logique nand (non-et). A l’inverse de la nor, elle ne permet pas d’accéder directement à une cellule de la matrice, il faut en effet passer par toutes les autres cellules précédentes. Malgré cela, elle est plus rapide car les données sont inscrites directement à la suite.

En outre, le flash nand est plus compact que le nor (cellules 40% plus petites) et coûte moins cher à la production. Par conséquent, elle est plutôt utilisée pour le stockage de données (clé usb…).

1.4.3) Quelles limites à la mémoire flash ?
1.4.3.1) Les avantages de la mémoire flash.

Grâce à sa vitesse élevée (due à la possibilité d’écrire simultanément plusieurs informations), de sa durabilité et de sa faible consommation (comparé au disque dur, une mémoire flash consomme 95% d’énergie en moins), la mémoire flash est idéale pour de nombreuses applications – comme les appareils photos numériques, les téléphones cellulaires, les imprimantes, les assistants personnels (PDA), les ordinateurs portables, ou les dispositifs de lecture ou d’enregistrement sonore tels que les baladeurs mp3.

De plus ce type de mémoire ne possède pas d’éléments mécaniques, ce qui lui confère une grande résistance aux chocs.

On note également l’encombrement réduit de cette méthode ainsi que son aptitude à conserver les données pendant plusieurs décennies.

1.4.3.2) Les inconvénients de la mémoire flash.

A ce jour, la mémoire flash n’a pas encore atteint la capacité des disques durs.

De plus, c’est une méthode plus coûteuse (comparé aux dvd ou aux disques durs); à titre de comparaison, un Go de mémoire flash coûte cent fois plus cher qu’un Go de disque dur (même si l’écart tend fortement à se réduire). A chaque cycle d’écriture, la couche d’oxyde de silicium se dégrade de sorte qu’au bout de 100 000 cycles la mémoire n’est plus utilisable.

1.4.3.3) Quel avenir pour la mémoire flash ?

Prochainement, le flash nand remplacera complètement les disques durs dans tous les appareils (nomades et fixes). Il existe déjà des disques de 176 Go, mais leur volume est trop important pour rentrer dans les unités centrales actuelles.

Les disques durs hybrides (mi flash, mi magnétique) vont tendre à se démocratiser, la partie flash permettant de lancer le système d’exploitation très rapidement, la partie magnétique étant utilisée pour stocker les données.

Concernant le prix, il devrait nettement baisser au fil des années du fait de la concurrence à laquelle se livrent les fabricants.

1.4.4) Concluons.

Mise au point à la fin des années 1980 par Intel, la mémoire flash possède de sérieux avantages. Elle utilise le système binaire, les bits sont matérialisés par l’état des transistors à grille flottante (bloqué ou passant).

On note sa fiabilité (certaines clés usb possèdent une coque en titane, rendant les données indestructibles), sa faible consommation et sa vitesse de lecture/écriture.

Grâce à ces avantages, la mémoire flash est en train de supplanter le magnétisme et l’optique.

Ainsi, la clé usb devient de plus en plus utilisée au point de remplacer le cd pour l’archivage de données.

Aujourd’hui, la mémoire flash est présentée comme l’avenir du stockage informatique. De par sa capacité et sa vitesse d’évolution, le flash a un bel avenir devant lui.

2) Quels sont les différentes stratégies de sauvegarde que l’on peut mettre en œuvre ?

– Préambule: élaborer une stratégie de sauvegarde, c’est garantir l’intégrité des données, la fiabilité et la continuité de service. Pour cela il faut planifier, analyser en tenant compte du personnel, de l’expertise technique, mais aussi du budget dont on dispose.

Dans la pratique, le mécanisme de sauvegarde mis en œuvre (il peut se faire sur des sites distants) doit donc être pensé pour assurer la pérennité et la récupération de l’ensemble des données critiques de l’organisation, quel que soit le sinistre subi, sans perturber le fonctionnement du système d’information.

2.1) Le choix du système de sauvegarde adéquat.

Il faut en premier lieu déterminer la plateforme matérielle de sauvegarde que l’on utilisera pour protéger ses données.

On s’intéressera de plus près aux systèmes à bande magnétiques qui présentent le double avantage d’un coût et d’une complexité moindres.

Avant de définir la stratégie de sauvegarde à adopter, on doit déterminer le volume de données que l’on doit protéger.

L’obtention de cette information est nécessaire puisqu’elle conditionne le type de système nécessaire qui peut aller:

– des unités à une bande;

– jusqu’aux chargeurs automatiques ou systèmes de stockage capables de gérer des centaines de bandes à la fois.

Déterminer ce qui sera protégé, c’est aussi trier les données qui sont cruciales de celles qui ne le sont pas (fichiers personnels des utilisateurs par exemple).

Une fois connue la quantité de données à protéger, on détermine alors le type de matériel répondant le mieux aux besoins exprimés.

Ainsi, des systèmes de bande DDS (20/40 Go de capacité) peuvent convenir à des utilisateurs (entreprises de taille réduite comme certaines PME, voire des professions libérales)dont la taille des données à protéger n’excède pas les 10 Go.

Les entreprises d’une taille plus importante se tourneront vers des systèmes de bande DLT (capacité plus importante variant de 15/30 Go jusqu’à 800/1600 Go). Il existe pour ces bandes, des systèmes de chargeurs automatiques comprenant des robots et autres formes de systèmes automatisés de permutation des supports.

Enfin, une fois le matériel choisi, on choisit le logiciel qui va permettre de mettre en œuvre le matériel choisi. On trouvera parmi les principaux produits: ARCserve de Computer Associates ou bien encore BackupExec de Veritas (entre 700 et 900 euros environ).

2.2) Détermination de la méthode de sauvegarde.

Le choix de la méthode (ou du mécanisme) de sauvegarde doit faire l’objet d’une stratégie qui:

– définit les données à sauvegarder;

– définit la fréquence et le mode de sauvegarde;

– définit un plan de reprise sur sinistre (démarche nécessaire pour rétablir le fonctionnement normal en cas d’incident).

Il existe plusieurs catégories de sauvegardes. On en distingue quatre.

2.2.1) La sauvegarde totale ou complète.

La sauvegarde totale (ou complète: full backup) réalise un copie conforme des données sur un support séparé.

Son gros avantage est de réaliser une image fidèle des données à un instant donné.

Elle présente toutefois un certain nombre d’inconvénients:

– problèmes de lenteur si les données sont modifiées en cours de sauvegarde (c’est un problème qui se pose lorsque le volume des données à sauvegarder est très important);

– problème de disponibilité car la sauvegarde créée des accès disques longs et intenses;

– problème de coût, étant donné la capacité parfois requise pour sauvegarder les données.

2.2.2) La sauvegarde différentielle.

Cette sauvegarde (differential backup) agit sur les fichiers modifiées depuis la dernière sauvegarde complète.

De là vient un de ses inconvénients majeurs: la lenteur, mais aussi le fait qu’elle est plus coûteuse en terme de stockage.

Son avantage principal réside en sa fiabilité car seule la sauvegarde complète est nécessaire pour reconstituer les données sauvegardées.

2.2.3) La sauvegarde incrémentale.

Cette sauvegarde (ou incremental backup) permet de copier tous les éléments modifiés depuis la sauvegarde précédente.

Son avantage principal est de se focaliser sur les fichiers modifiés avec un espace de stockage plus faible (gain de performance par rapport à une sauvegarde complète).

Son inconvénient est qu’il faut posséder les sauvegardes précédentes pour reconstituer la sauvegarde complète.

2.2.4) La sauvegarde à delta.

Enfin, la sauvegarde à delta (delta backup) est une sauvegarde de type incrémental sur des éléments de données à granularité plus fine, c’est à dire au niveau de chaque bloc de données et non au niveau du fichier seulement.

2.3) La permutation des bandes.

On doit ensuite développer un plan de permutation des bandes et déterminer l’endroit de leur stockage.

Il est souhaitable que l’entreposage des bandes se fasse hors site dans un endroit sûr où l’on puisse les récupérer rapidement en cas de besoin.

Le plan de permutation des bandes doit permettre à la fois de réduire les coûts du support et du stockage hors site.

Bien des schémas de permutation plus ou moins complexes existent, le plus courant est le cycle Grand-père-Père-Fils.

Quelques explications.

Dans la version d’origine de ce schéma, on effectue les sauvegardes complètes à deux intervalles différents:

– Le premier est mensuel et on entrepose immédiatement le support hors site (grand-père).

– On effectue également des sauvegardes hebdomadaires complètes (père) et on les conserve généralement sur site pendant la semaine de leur utilisation, puis on les place hors site pendant un nombre prédéterminé de cycles hebdomadaires (deux ou trois cycles suffisent généralement).

– Les sauvegardes incrémentales journalières (fils) s’effectuent et se conservent également sur site pendant la semaine de leur usage, puis on les place hors site avec la sauvegarde hebdomadaire correspondante selon le même calendrier cyclique.

À la fin d’un cycle pour un jeu de bandes, celles-ci peuvent être réutilisées.

On conserve chaque bande mensuelle pendant 12 mois avant de la réutiliser.

On conserve généralement les jeux de bandes hebdomadaires pendant environ trois semaines après leur départ de la salle du serveur (soit pendant quatre semaines), puis on les réutilise.

Le nombre de réutilisations d’une bande dépend du type de support ; il est préférable de demander au fabricant le nombre de réutilisations conseillé pour chaque bande.

Les schémas de permutation Grand-père-Père-Fils permettent d’entreposer immédiatement les sauvegardes mensuelles en un endroit sûr, tandis que l’on conserve la plupart des sauvegardes complètes et incrémentales hebdomadaires pour réaliser sur le champ une restauration. On les stocke ensuite hors site en cas de panne.

Si ce système présente des limites (vous pouvez perdre une semaine de données en cas d’incendie ou autre catastrophe), il procure la sécurité la plus élevée au coût le plus bas.

Votre entreprise peut bien sûr nécessiter davantage de sécurité, auquel cas vous pouvez toujours expédier les bandes hors site dès leur création.

Ce système est efficace pour la protection des données, mais il faudra rapatrier ces bandes sur site pour effectuer la restauration, ce qui entraînera des frais supplémentaires. 


2.4) D’autres systèmes de sauvegarde possibles ?

Après avoir explicité les différentes méthodes de sauvegarde au travers d’une stratégie de sauvegarde consistant à permuter des bandes, nous allons voir qu’il existe d’autres systèmes de sauvegarde. Du moins nous allons voir s’ils méritent ce qualificatif ?

2.4.1) L’usage des disques durs: les systèmes RAID (Redundant Array of Independant Drives).

La première chose est que le RAID ne peut en aucun cas constituer une alternative aux sauvegardes: il ne sert qu’à accélérer le traitement des données ou a les stocker de manière redondante afin de rendre le système résistant aux pannes de disques durs.

Ainsi, il est essentiel de sauvegarder régulièrement les données sur un support indépendant (usage des bandes vu plus haut), l’usage du stockage redondant ne peut que constituer une deuxième étape.

C’est ainsi qu’il n’est inutile de se poser la question suivante: dans quel cas ai je besoin du RAID et quel est le niveau de RAID adapté à mes besoins ?

On adopte ce système dans le cadre d’une recherche de continuité de service, dans d’autres cas, l’usage de disques durs isolés ou une solution de sauvegarde sérieuse (vue précédemment) semblent nécessaires.

2.4.1.1) Fonctionnement du système RAID: la recherche de la redondance.
2.4.1.1.1) Quel type de RAID mettre en œuvre ?
2.4.1.1.1.1) Le RAID matériel.

Le RAID peut être matériel grâce à une carte contrôleur spécifiquement dédiée à cet usage.

2.4.1.1.1.2) Le RAID logiciel.

Il peut être logiciel et là, on fait appel au CPU pour les calculs de parité.

2.4.1.1.2) Quelle interface choisir ?

L’interface choisie peut être de 2 types:

– Elle peut être soit SAS (Serial Attached SCSI, l’évolution moderne et en série du SCSI). Les contrôleurs SAS professionnels sont capable de prendre en charge les disques SAS et SATA (les contrôleurs SATA ne peuvent prendre en charge que les disques SATA).

– Elle peut être aussi SATA.

Ensuite, il faut se prononcer sur le fait de brancher les disques en interne ou externe (interface eSATA; modules d’extension SAS, et câbles multilignes).

On peut installer des disques de rechange (« hot spares »); utiliser ou non la mémoire cache du contrôleur ou de protéger le contenu de celle-ci à l’aide d’une batterie de secours.

Mais pour réduire la complexité des systèmes RAID, on se sert souvent de disques durs identiques.

2.4.1.1.3) Les différents niveaux de RAID.

Dans le cadre d’une recherche de continuité de service le système doit être disponible 24 heures sur 24, c’est pour ce la qu’on recherche la redondance des données. Quels sont donc les niveaux de RAID mis à notre disposition pour atteindre ce but ?

– On écartera d’emblée le RAID 0 qui n’assure aucune redondance des données. Il se contente de répartir les écritures sur les disques disponibles.

– Le RAID 1 semble un bon compromis, ainsi le contenu d’un premier disque dur est copié en temps réel sur un second. Même si un des deux disques tombe en panne, le système reste opérationnel. De plus, ce niveau de RAID n’affecte pas les performances en terme de débit.

– Les RAID 5 et 6 gèrent un nombre élevé de disques et permettent la création de grappes de grande taille (même si respectivement 3 et 4 disques suffisent pour les mettre en oeuvre). Ces niveaux de RAID permettent la redondance des données, avec création d’un jeu de parité pour le RAID 5 et 2 pour le RAID 6 (la panne simultanée de 2 disques est tolérée).

La capacité de stockage proposée est supérieure à celle du RAID1, soit tous les disques de la grappe (moins un pour le RAID5, et moins deux pour le RAID6).

Toutefois, la puissance de traitement requise pour la mise en oeuvre de tels niveaux de RAID doit être assez conséquente: on doit choisir non seulement un contrôleur rapide mais aussi un nombre de disques supérieur au strict minimum, car un RAID composé de 3 ou 4 disques durs offre des taux de transferts souvent inférieurs à ceux d’un disque unique.

2.4.1.2) Les avantages du RAID.

L’usage du RAID permet la réduction des pertes de données en cas de défaillance d’un disque dur. Il permet aussi d’améliorer les performances.

2.4.1.3) Les inconvénients ou les limites du RAID.

Le RAID ne protège pas des défaillances matérielles (pannes successives de plusieurs disques); ni les données des erreurs humaines (suppression accidentelle de fichiers); ni assurer une protection aux risques extérieurs du système (incendie; surcharge électrique qui grillerait l’ensemble des disques).

Ce système peut engendrer un excès de confiance, certes la technologie semble très robuste et fiable en apparence, mais les inconvénients sont nombreux:

– multiplier le nombre de disques multiplie les risques de panne;

– il arrive que bien souvent les disques d’une grappe RAID soient souvent du même type et surtout du même âge, ce qui peut accroître les risques de panne;

– un disque défectueux peut perturber le fonctionnement du contrôleur et entraîner la perte de plusieurs unités dans une grappe RAID 5;

– le RAID ne protège pas contre les défaillances du système d’exploitation;

– le RAID ne protège pas d’une destruction de données (dysfonctionnement logiciel, virus,…);

– enfin, le système RAID reste vulnérable aux risques physiques classiques (incendie, surtensions, inondation,…).

2.4.1.4) Conclusion.

L’usage du raid ne dispense pas d’effectuer des sauvegardes régulières: en effet, les défaillances disques ne constituent pas des exceptions, et l’erreur humaine est toujours présente (effacement de fichiers…).

Les niveaux les plus intéressant sont: le 1 et 5; le RAID 6 est onéreux.

Voici un petit tableau comparatif des trois modes les plus intéressants fonctionnant avec 10 disques durs d’une capacité unitaire de 120 Go et ayant un débit réel en lecture/écriture de 70/50 Mo/s.

RAID 0 RAID 1 RAID 5
capacité 1200 Go (100 %) 120 Go (10 %) 1080 Go (90%)
débit en lecture 700 Mo/s 700 Mo/s 620 Mo/s
débit en écriture 500 Mo/s 50 Mo/s 450 Mo/s
Tolérance de panne(nombre de disques) aucun jusqu’à 9 disques un disque

Le système ayant le meilleur rapport capacité/performances/sécurité est sans conteste le RAID 5. C’est d’ailleurs lui le plus utilisé en entreprise.

2.4.2) Le stockage en réseau.
2.4.2.1)Le NAS (Network Attached Storage).

C’est un serveur de stockage à part entière pouvant être attaché au réseau de l’entreprise afin de servir de serveur de fichiers et fournir un espace de stockage tolérant aux pannes.

Ce serveur dispose de son propre système d’exploitation et d’un logiciel de configuration permettant de le paramétrer.

Il possède de plus son propre système de fichiers hébergeant le système d’exploitation, ainsi qu’un ensemble de disques indépendants servant à héberger les données à sauvegarder.

2.4.2.1.1) Avantages et inconvénients du NAS.

Le NAS fait usage du LAN ce qui peut « grever » la bande passante, de plus, il n’assure pas redondance des données, mais il ne nécessite pas le recours à la fibre optique ce qui peut permettre une certaine maîtrise des coûts.

2.4.2.2) Le SAN (Storage Area Network).
2.4.2.2.1) Présentation du SAN.

Ce réseau de stockage à part entière est une architecture qui se décompose de la façon suivante:

– un réseau très haut débit (fibre, SCSI);

– des équipements d’interconnexion dédiés (switch,…);

– des éléments de stockage en réseau (disques durs).

Les ordinateurs qui accèdent au SAN possèdent une interface réseau spécifique relié au SAN, en plus de leur interface réseau traditionnelle.

2.4.2.2.2) Avantages et inconvénients du SAN.

Les performances du SAN dépendent du type de réseau utilisé (avec un réseau Fibre Channel, la bande passante est d’environ 100 Mo/s).

Sa capacité peut être étendue de façon quasi-illimitée.

Il est possible de partager des données entre plusieurs ordinateurs du réseau sans perte de performances (trafic SAN séparé du trafic utilisateurs: les serveurs applicatifs jouent le rôle d’interface entre le réseau de données (Fibre Channel) et le réseau des utilisateurs (Ethernet)).

De plus, il assure la redondance des données (il double au minimum chacun des éléments du système : les cartes HBA (Host Bus Adapter) des serveurs, les commutateurs, et l’écriture des données sur les disques). Mais son coût est supérieur à celui d’un dispositif NAS.

2.4.2.3) Les autres voies du stockage en réseau.
2.4.2.3.1) iSCSI.

Le iSCSI (Internet Small Computer System Interface) est un hybride qui rend compatibles des protocoles qui ne le sont pas naturellement : SCSI (le protocole le plus utilisé pour le stockage) et TCP/IP (protocole NAS), en encapsulant les données SCSI dans des paquets IP.

Ceci permet à l’entreprise de s’adosser à son existant. Mais les débits qu’offre cette solution sont inférieurs à ceux de la fibre optique, car ils sont indéxés au débit des réseaux Ethernet.

2.4.2.3.2) Le stockage sur IP ?

Le stockage via IP (Internet Protocol) découle des problématiques soulevées par le stockage en réseau. Avec le NAS et le SAN qui mettent en réseau des serveurs et des sous-systèmes de stockage, commence à se poser le problème de leur interconnection distante.

Ainsi les deux protocoles aujourd’hui utilisés, Fibre Channel (FC) et SCSI reposent sur des médias dont les capacités sont physiquement limitées : les câbles en cuivre utilisés pour SCSI ne peuvent dépasser 12 à 25 ms, tandis que ceux en fibre optique sont limités selon les cas, à 500 ms (Fibre Channel Short Wave, FC SW) ou 10 kms (dans le cas de la Fibre Channel Long Wave, FC LW).

2.3.2.3.3) Apparition de nouveaux protocoles: FCIP, iFCP, iSCSI, Infiniband.

FCIP, iFCP et iSCSI sont trois protocoles qui tentent de répondre au problème du stockage via IP, mais chacun avec des sphères d’applications bien spécifiques.

FCIP est un protocole de tunneling destiné à relier entre eux des réseaux SAN en fibre optique géographiquement distants. FCIP tente de répondre à un problème d’interconnexion de réseaux FC sur des longues distances.


iFCP se situe à un autre niveau que FCIP. Il sert à connecter non pas deux réseaux entre eux, mais un périphérique de stockage (serveur, librairie de bandes, etc.) doté d’une carte HBA (Host Bus Adapter) FC directement à un réseau SAN IP. Pour cela, iFCP remplace certaines couches basses du protocole FC par TCP/IP.

iSCSI est un protocole d’encapsulation de flux de données au format SCSI dans des paquets IP, procédé grâce auquel iSCSI s’affranchit des limites des réseaux en cuivre ou en fibre optique.

Infiniband n’est en revanche pas à proprement parler un protocole de stockage sur IP, mais une architecture d’entrée-sortie des serveurs (I/O), qui pourrait remplacer à terme les bus PCI en offrant des débits bien supérieurs (de 500 Mbps jusqu’à 6 Gbps avec la technologie 12X).

2.4.3) L’externalisation des sauvegardes (incrémentales) sur un site sécurisé par Internet.

Les contraintes en terme de budget, la difficulté pour acquérir certaines compétences, la lourdeur de gestion de processus de sauvegarde en interne voilà qui peut expliquer le recours a de telles prestations à savoir envoyer ses données sur un stockage distant.

2.4.3.1) Une attractivité accrue par une maîtrise des coûts.

Le fait qu’un prestataire mutualise ses ressources entre plusieurs clients implique des coûts inférieurs à une solution développée en interne non partagée. Ceci étant particulièrement vrai pour des PME par exemple qui ne peuvent développer certaines stratégies de sauvegarde coûteuses comme pourraient le faire de grands groupes.

2.4.3.2) Des solutions évolutives ?

Un prestataire doit mettre en œuvre les dernières technologies en matière de sauvegarde dans la mesure où les données à sauvegarder peuvent être de nature très différentes (base de données résidentes ou non, images,…) comme la diversité des systèmes d’exploitation à gérer chez le client.

2.4.3.3) Des obligations de service et d’accompagnement.

Le prestataire se doit d’assurer la continuité des services sur la base des SLA (Service Level Agreements).

De plus son rôle est de mettre en œuvre des outils de supervision afin d’optmiser mais aussi de rendre compte, ce qui peut permettre aussi de déboucher sur un rôle de proposition afin de mettre en œuvre les solutions adéquates.

2.5) En conclusion.

Pour assurer la continuité de service, un système de sauvegarde des données doit être mis en place. La mise en place d’un tel système passe par:

– la détermination des données à protéger;

– le choix des supports à employer;

– la protection des supports eux-mêmes.

3) Quel est l’avenir du stockage de données ?

Si dans un futur très proche, on peut penser que la mémoire flash supplantera le disque dur dans les unités centrales; l’avenir semble appartenir au disque holographique. Il semble posséder de sérieux atouts à commencer par sa capacité: 1 To ou plus avec une durée de vie annoncée de 50 ans.

il est évident que le stockage holographique constitue l’avenir du stockage optique, mais compte tenu du prix (180 dollars pour une cartouche et 18 000 pour un graveur) et de la nouveauté de cette technologie, elle sera réservée aux professionnels dont les besoins en stockage de données sont élevés. Parmi eux, l’industrie cinématographique dont les besoins en données sans cesse croissant résultent de l’adoption de la haute définition. On trouve aussi certaines sociétés (administration, recherche, statistiques,…) qui manipulent un grand nombre de données (ne pas oublier que la carte perforée est apparue à l’occasion du recensement de 1890 aux Etats).

3.1)Historique.

L’holographie sur laquelle repose le système a été inventée par D. Gabor en 1947 (il a mis au point la théorie car la technique ne permettait pas à l’époque une quelconque expérimentation en laboratoire). Cette invention lui a permis d’obtenir le prix Nobel de physique en 1971.

Le système repose sur l’usage d’une source de lumière cohérente et l’avancée de technique ne permet que d’effectuer les premières démonstrations dans les années 1960.

Les lasers permettent aujourd’hui la production d’une telle lumière, c’est sur ces derniers que repose le système.

3.2) Présentation du système.

3.2.1.1) Le procédé mis au point par la société InPhase.

Cette production se décompose en plusieurs étapes:

– On émet un faisceau de lumière cohérente via un rayon laser.

– Le faisceau en question est coupé en deux par un miroir semi-réfléchissant:

– l’un des faisceaux est alors dirigé sur la zone à « photographier » (objets,…). Cette zone éclairée réémet de la lumière;

– l’autre faisceau est orienté de façon à intercepter la lumière réémise de l’objet. Le résultat obtenu est une figure d’interférence des deux faisceaux. Cela ressemble à un assemblage de zones claires et sombres mélangé à des stries: c’est ce que l’on appelle la « photographie holographique ».

La « lecture » d’une image holographique consiste à projeter sur celle-ci un faisceau de lumière cohérente similaire à celui utilisé pour la création de la figure d’interférence.

La particularité de l’holographie est de reproduire les objets dans leur trois dimensions: elle repose totalement sur les phénomènes d’interférence.

3.2.1.2) Le procédé mis au point par la société Optware.

Il repose comme le procédé précédent sur des phénomènes d’interférences. Il diffère sur le fait qu’au lieu d’utiliser deux faisceaux avec des axes différentes, il emploie deux faisceaux parallèles dont l’un est produit avec un laser vert, et l’autre avec un rouge (c’est le procédé dit d’holographie colinéaire ou parallèle).

3.3) Les capacités du support.

3.3.1) La capacité théorique du support.

Il est possible en théorie d’enregistrer un bit dans un cube dont les côtés ont la taille de la longueur d’onde des rayons incidents.

Ainsi avec un laser hélium-néon dont la longueur d’onde est de 632,8 nm (laser à lumière rouge), on devrait pouvoir enregitrer 4 gigabits dans un millimètre cube.

Il existe toutefois un certain nombre de facteurs limitants à cette densité:

– le besoin de correction d’erreur;

– le besoin de pallier les imperfections ou les limitations des systèmes optiques;

– le coût.

3.3.2) La capacité réelle du support.

En juin 2006, la société InPhase Technologies (Logmont, CO) a annoncée la réalisation du premier media de stockage holographique. D’une capacité de 300 Go, il mesure 152x135x109 mm et atteint un débit de 20Mo/s.

La société japonaise Optware affirme pouvoir stocker sur ses HDV jusqu’à 1 Térabit soit l’équivalent de 315 DVD, le tout avec une vitesse de transfert de l’ordre d’un gigabit/seconde soit bien au-delà du Blu-ray actuel.

3.3.3) Le DVD holographique ou HVD peut il servir de support de stockage crédible ?

On pourrait le croire au vu des chiffres précédemment cités. Si cela peut être vrai pour le particulier (l’introduction de la haute définition nécessitant des besoins de stockage accrus), il existe (existait ?) des facteurs limitants pour les entreprises:

– des capacités importantes;

– des taux de transfert adaptés.

Les chiffres annoncés par la société Optware semblent lever l’une et l’autre de ces hypothèques.

3.4) Conclusion.

L’un des intérêts majeurs de l’holographie est de pouvoir se servir du volume du support au lieu d’en rester à sa surface pour enregistrer les données. De surcroît, les données peuvent être multiplexées dans le volume d’enregistrement par ajout d’un angle au faisceau enregistreur para rapport au faisceau de référence, ou par modification de sa fréquence ou de sa phase.

4) Conclusion générale.

Comme nous avons pu le voir; il n’existe pas de système de sauvegarde parfait. Les évolutions techniques (HVD, disques SSD,…) sont là pour relever les défis de demain en terme de capacité, consommation à condition que les coûts baissent, surtout en direction des particuliers.

En ce qui concerne le monde de l’entreprise (selon la taille et les besoins), faute de recul (et de coût aussi), on utilise des solutions éprouvées qui combinent plusieurs systèmes.

Ainsi, si la pratique de la redondance des données peut assurer une continuité de service 24 heures sur 24, elle ne peut substituer à une stratégie de sauvegarde des données qui se base le plus souvent sur l’usage de bandes magnétiques.

L’externalisation des données fait aussi partie de cette stratégie, et constitue parfois une alternative viable en termes de coûts pour des entreprises de taille plus réduite.

Annexes

 

 

clip_image031

clip_image033

 

clip_image037

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *