Go to Top

L’histoire de la gestion des données

L'histoire de la gestion des données

Il est facile, dans le monde du stockage et de la gestion de données, de dire que les choses évoluent constamment et que de nouvelles technologies sont développées tous les jours. En nous penchant sur l’histoire du stockage et de la gestion des données, nous avons découvert que certaines des « nouvelles » technologies d’aujourd’hui existent (parfois de manière conceptuelle) depuis beaucoup plus longtemps qu’on ne l’imaginait. Ce qui a vraiment changé, c’est la manière dont nous gérons les données.


Le graphique qui suit représente les événements marquants liés au stockage des données. Si nous avions créé ce graphique pour illustrer l’adoption par le marché, il serait bien différent. Nous n’allons pas entrer dans les détails pour chacun d’entre eux, juste suffisamment pour vous donner un panorama des changements au fil des années.

Historique du stockage de données

La carte perforée mécanique

carteperforéeHerman Hollerith a inventé la carte perforée mécanique en 1890. La société fondée par Hollerith finira par évoluer pour devenir une petite société connue sous le nom d’IBM. Les cartes perforées ont été fabriquées à partir d’un papier cartonné épais aux dimensions similaires à celles d’un billet de banque (7 3/8 pouces de large et 3 1/4 de pouces de long). La première utilisation majeure de la carte perforée a eu lieu lors du calcul du recensement de 1890. Par rapport à la réalisation manuelle des calculs, il s’agissait d’un progrès notable en termes de productivité et de progrès technologique. La tabulation du recensement de 1890 n’a pris qu’un an alors que celle de 1880 en avait pris huit.

Pour utiliser la carte, il fallait une perforatrice, une tabulatrice et une classeuse ; l’utilisation d’un ordinateur n’était pas requise. Les cartes et les machines ont évolué au fil des années, mais lorsqu’il fallait utiliser les cartes perforées, le coût de l’équipement était élevé et le processus d’utilisation des cartes était vraiment contraignant. Le fait d’écrire les programmes logiciels et de perforer les cartes prenait plusieurs mois. Pour utiliser le système, le programme informatique et les données initiales devaient être chargés sur la machine à chaque utilisation à cause du manque de mémoire vive locale pour conserver tous les programmes ou les données de sortie. Il s’agissait d’une opération très longue et inefficace. On pourrait penser que cette technologie n’existe plus depuis longtemps, mais elle a clairement été utilisée lors des élections présidentielles de 2000 aux États-Unis.

Cartouche magnétique & Cartouche 8mm

History-Tape-300x250

La cartouche magnétique, la reine des mémoires froides, a été inventée en 1928 par Fritz Pfleumer.  À l’origine, elle a été utilisée pour enregistrer des sons, puis s’est développée pour stocker des données en 1951 avec l’invention de l’UNISERVO I, le premier enregistreur sur cartouches numériques. L’UNISERVO I a été installé sur l’ordinateur UNIVAC I. L’UNIVAC I était doté d’une console système et de jusqu’à 10 cartouches UNISERVO. Les cartouches offraient des fonctionnalités de lecture et d’écriture à un taux de 12.8 Ko/s et avaient une capacité de stockage pouvant aller jusqu’à 184 Ko. Le stockage sur cartouches a beaucoup évolué depuis son invention. Les cartouches modernes et grand public (LTO6) peuvent stocker jusqu’à 2.5 To (6.25 To compressés), bien qu’il ait déjà été possible de stocker jusqu’à 185 To sur une seule cartouche. Si leur stockage est correctement effectué, la longévité des cartouches est difficile à battre.

La cartouche est utilisée pour un stockage à long terme de données qui ne nécessitent pas un accès rapide (par exemple, la mémoire froide). Les défis principaux liés à la gestion des cartouches sont le stockage, la récupération de données et les coûts de maintenance. Dans un monde parfait, toutes les cartouches d’une entreprise seraient conservées dans un bâtiment à la température contrôlée, parfaitement empilées et étiquetées. Elles seraient toutes associées à un listing de catalogues à jour de toutes les données présentes sur chacune d’entre elles. Un directeur de centre de données vérifierait systématiquement qu’elles ne soient pas endommagées et détruirait les cartouches en fin de vie immédiatement lorsqu’elles arrivent à expiration. Quiconque est responsable de la gestion du stockage de cartouches doit penser que JE SUIS EN TRAIN DE RÊVER !!!!! En réalité, la plupart des personnes responsables du stockage des cartouches n’a pas le temps d’effectuer et de respecter toutes ces étapes. Si elles ont un besoin urgent de données sur cartouches, sans assistance, la récupération pourrait prendre des semaines, si ce n’est des mois, en fonction de la quantité de données et des conditions dans lesquelles les cartouches sont conservées.

Le disque dur

vieillesmachines

Étant donné qu’IBM a régné sur le marché de l’ordinateur durant la majeure partie des années 1950 jusqu’aux années 1980, il n’est pas surprenant que le premier disque dur ait été conçu par eux en 1956. L’IBM 350 Disk File a été conçu pour fonctionner avec l’ordinateur central IBM 305 RAMAC.  Ce premier disque dur pesait environ 1 tonne et faisait presque 2 mètre de haut. L’IBM 350 Disk File a été configuré avec 50 disques magnétiques qui contenaient 50 000 secteurs et stockaient 3.75 Mo de données. L’ordinateur central IBM 305 RAMAC associé à l’IBM 350 Disk File a permis aux entreprises d’enregistrer et de conserver des données en temps réel. Ils ont également fourni un accès aléatoire à toutes les archives et pouvaient produire simultanément des données de sortie par l’intermédiaire d’impressions ou de cartes perforées. Il s’agissait d’un progrès significatif dans le domaine des technologies qui a rendu l’accès aux données plus simple que jamais. Le défi avec la première série de disques durs jusqu’en 1980 résidait simplement dans la taille du disque. En 1980, le disque de 13 cm est arrivé sur le marché et a réduit de manière significative l’espace nécessaire pour stocker des données.  Cela nous mène au disque d’aujourd’hui qui est encore plus petit, de 2,5 à 9 cm en taille, mais beaucoup plus grand en termes de capacité de stockage (les disques durs de 9 cm peuvent stocker jusqu’à 10 To).

Les disques modernes rendent la gestion et le stockage des données beaucoup plus pratique. Une capacité importante, un stockage rémanent et un prix moins élevé par Go que le disque électronique. Les inconvénients du disque dur résident dans la consommation d’énergie, la vitesse et, pour certains, la longévité.

La virtualisation

Le premier programme, CP, qui a créé des machines virtuelles, a vu le jour en 1968. Avant sa sortie, pour partager le temps sur un ordinateur central, les ressources, dont la mémoire, l’espace sur le disque et les cycles de l’unité centrale, devaient être divisées manuellement entre les différents utilisateurs. Le partage des ressources a permis à chaque utilisateur d’avoir son propre système d’exploitation et de partager toutes les ressources présentes sur l’ordinateur central. En fin de compte, ce procédé a résulté en une utilisation plus simple et plus sécurisée. Si un utilisateur était victime d’une panne, seul son système d’exploitation serait affecté et non le système complet. La première machine virtuelle constitue la base de l’hyperviseur d’aujourd’hui. VMWare, le leader actuel du marché en matière de virtualisation, a commencé à vendre Virtual Workstation en 1999 et s’est lancé dans le marketing d’entreprise en 2001 avec ESX Server et GSX Server. Depuis, VMWare continue de développer des produits complémentaires.

La virtualisation, avec les progrès réalisés grâce à VMWare et Microsoft, a révolutionné la manière dont les données étaient stockées dans un centre de données. Avec la virtualisation, les directeurs de centres de données sont capables de maximiser l’espace de stockage et de réduire leurs dépenses matérielles.  Les serveurs peuvent désormais mener plusieurs opérations sur un serveur, contre l’unique opération que le matériel informatique avait été conçu pour mettre en place. Cela signifie : un approvisionnement du serveur plus rapide, un temps de bon fonctionnement plus important (la capacité de déplacer facilement une machine virtuelle d’un serveur à l’autre) et une gestion des ressources facilitée.

Le disque SSD

dataram blue core

Le premier disque SSD, le Bulk Core, a été introduit au public en 1976 par Datram. Sa taille a été pensée très différemment par rapport à celle de ces prédécesseurs étant donné qu’il mesurait 48cm de large et 39cm de haut et possédait un châssis monté en rack. Le Bulk Core pouvait contenir jusqu’à 8 cartes mémoire avec 256 Ko de puces RAM. L’avantage à l’époque était lié à l’absence de pièces amovibles et au fait qu’une alimentation constante n’était pas nécessaire pour conserver les données. La technologie liée au premier disque SSD constituait la base pour les disques SSD modernes que nous connaissons. Les disques SSD comme nous les connaissons aujourd’hui ont commencé à se démocratiser en 2001. Étant donné qu’il n’y a pas de pièces amovibles, les fabricants sont capables de réduire la taille du disque.

Les avantages du disque SSD par rapport à la gestion des données résident dans les temps de stockage et de récupération plus rapides. Ils conviennent pour les données et les systèmes d’exploitation qui nécessitent un accès fréquent. Les autres avantages potentiels sont une consommation d’énergie, une taille et un bruit réduits, ainsi que la capacité de fonctionner dans des environnements plus extrêmes.

Le stockage défini par logiciel

Le concept de Stockage défini par logiciel est né dans les années 90 sous la forme d’un mécanisme permettant l’interopérabilité et la manageabilité entre les fabricants de matériel informatique au sein d’un réseau. De peur que le Stockage défini par logiciel n’élimine les différenciateurs dans le matériel, les fabricants ont repoussé sa sortie sur le marché à ce moment-là. Lorsque la Virtualisation a décollé, ce fut également le cas des demandes d’application du matériel qui en était responsable. Le Stockage défini par logiciel a été créé pour fonctionner avec la virtualisation pour gérer les exigences du matériel et répartir la charge de travail. Avec l’arrivée du Stockage défini par logiciel, la gestion des données est devenue plus efficace. Non seulement la gestion des données est plus efficace, mais l’utilisation du matériel également.

 

Lire aussi : Avantages et risques liés aux stockages
définis par logiciel (Software Defined Storages, SDS)

 

Le Stockage en ligne

Bien que le concept de Stockage en ligne remonte aux années 60, il n’a pas vraiment été opérationnel jusqu’à l’arrivée de Salesforce.com en 1999. Salesforce.com a permis la diffusion d’applications d’entreprise par l’intermédiaire d’un site Web, ce qui n’avait jamais été fait auparavant. La diffusion d’une application sur Internet a ouvert les portes à d’autres sociétés logicielles. Amazon a suivi en 2002 avec des services en ligne (sur le cloud), dont le stockage. En 2006, Amazon a commencé à louer des ordinateurs à de petites entreprises pour faire fonctionner des applications et c’est ainsi que le cloud tel que nous le connaissons aujourd’hui est né.  Depuis, une variété de fournisseurs de cloud ont vu le jour et, récemment, des normes ISO pour le cloud ont été mis en place.

La gestion des données dans le cloud enlève à l’entreprise la responsabilité de la gestion et la place entre les mains du fournisseur de stockage en ligne, réduisant ainsi les coûts matériels pour le centre de données.

En résumé

Le monde du stockage de données s’est beaucoup développé au fil des années. De la gestion des cartes perforées sur du matériel coûteux jusqu’à ne plus avoir à gérer de matériel du tout. Comme vous pouvez le voir, beaucoup des « nouvelles » technologies d’aujourd’hui étaient en fait de vieux concepts ou une renaissance technologique. Il est peut-être bon dans ce cas de se tourner vers le passé pour avancer vers l’avenir.

Sources

Laisser un commentaire