Go to Top

Les pertes de données ne sont pas une fatalité

Les pertes de données ne sont pas une fatalité

Les pertes de données engendrent des pertes d’exploitation qui peuvent avoir des coûts et des répercutions très importants pour les entreprises, sans compter leurs dépenses de reconstruction. Peut-on s’en prémunir ?

Toutes les sociétés, de la TPE au grand compte, mais aussi les collectivités, sont désormais à la merci des caprices de leur informatique dans leur exploitation quotidienne; le pire étant les pertes de données. Les origines de ces pertes sont multiples. Les conséquences sont faciles à constater : baisse du chiffre d’affaires à cause d’opportunités de vente manquées, coûts fixes de fonctionnement (salariés, locaux, équipements,…) et coûts non planifiés relatifs à la reprise d’activité si elle peut être envisagée. Les impacts sont potentiellement la cessation d’activité.  En cause pour plus de 30% des cas, l’erreur humaine.

Comment se perdent les données ?

Dans les grandes entreprises, le responsable d’exploitation dépend de la DSI. Il est en charge de la production informatique. Il est le référent interne de l’entreprise pour l’informatique de tous les métiers. C’est lui qui est en charge de l’analyse des risques et des solutions à y apporter. Selon une enquête Ipsos (1) de Septembre 2012 sur les PME d’au moins 10 salariés, dans un tiers des cas, l’informatique est pilotée par le chef d’entreprise non informaticien.

Quelle que soit la situation, comment en vient-on à perdre des données ? Les chiffres qui ressortent des récupérations de données opérées par notre société montrent que si dans l’informatique traditionnelle, les pertes de données sont à 74% matérielles et à 26 % humaines, dans le monde des systèmes virtuels, c’est à 35% la « machine » et 65% l’homme. Les machines virtuelles apparaissent donc plus fiables mais l’homme se retrouve confronté à un manque de formation évident.

Selon une étude de 2011 menée par Forrester Research et le Disaster Recovery Journal (2) sur des compagnies américaines, les chiffres donnés sur l’erreur humaine au sujet de systèmes traditionnels sont plus faibles : 13%. Ils tiennent compte de récupérations de données opérées en interne dans les entreprises dans lesquelles l’erreur humaine est minimisée car il y a risque de faire licencier le responsable.

La chaîne de décision en question ?

La problématique de l’erreur humaine n’est pas forcément uniquement liée à la production non plus. Loin s’en faut. L’erreur humaine, dans les faits, peut atteindre les 95%; elle est dans le comportement global de l’entreprise qui n’introduit pas l’informatique dans un processus constant de management. Pourtant, il y a un service comptabilité au quotidien, des locaux en état, des salariés, etc. En gros, l’organisation est bonne quand le système est neuf. Avec le temps, les équipes changent, le niveau de connaissance des systèmes s’étiole; on sait réaliser des sauvegardes, mais on ne valide pas en amont des mises à jour de logiciels qui rendent caduques les restaurations,… Les précautions minimales sur la maintenance des systèmes ne sont plus respectées. Les décisions financières sur le renouvellement  de matériel et le remplacement de pièces sont retardées. Résultat: les conséquences peuvent être dramatiques.

Pour certaines entreprises, un cataclysme

Selon la même étude de Forrester Research, les coûts annuels les plus élevés de la récupération de données peuvent atteindre de 4 à 7 millions d’euros pour une société ayant moins de 99 employés et plus de 15 millions d’euros pour des sociétés à partir de 1000 employés. Cette étude inclut tous les coûts, y compris ceux de la perte d’exploitation. Pour 15% des entreprises de l’étude, le coût de l’heure de panne est estimé à 120000 euros.

Le Cloud est-il un risque supplémentaire ?

Le Cloud qui consiste en une externalisation des solutions informatiques aux besoins des entreprises est souvent au cœur de polémiques liées à la stabilité, la fiabilité et la sécurité des données à plusieurs titres. Le Cloud n’est pas un risque supplémentaire. La stabilité, la fiabilité et la sécurité des données dépendent des services choisis, de la qualité des prestataires et des engagements contractuels. Tout le Cloud repose sur du virtuel. Le principe masque souvent l’effort d’ingénierie et fait penser aux sociétés qui l’exploitent, qu’elles peuvent diminuer leurs coûts d’exploitation de manière drastique. Si les risques sont connus, la problématique est dans le niveau de leur acceptation.

Comment se prémunir ?

Les grandes entreprises ont l’habitude de ces problématiques baptisées Plan de Continuité des Activités (PCA) et Plan de Reprise d’Activité (PRA) ou Plan de Reprise Après Sinistre. Certaines négligent parfois trop les tests de leurs plans de secours ou de leurs mises à jour, ce qui est un gros risque dans l’informatique virtuelle: elles se retrouvent souvent à tester leur solution lorsqu’il est absolument nécessaire d’être en mode opérationnel.

Pour les petites entreprises, la réflexion n’est pas souvent menée à son terme. Quand il y a réflexion. L’analyse Forrester Research de 2011 montre que 32 % des entreprises sont à peu près préparées et 8%, pas préparées du tout. Pas d’information sur celles qui sont préparées mais qui n’ont pas forcément testé les mises à jour.

Les grands points d’un tel plan sont d’adopter une stratégie pensée pour tous les risques encourus pour chaque métier, chaque application vitale pour l’entreprise. La sauvegarde fait évidemment partie de ces plans mais le thème de la sauvegarde est très vaste. Les problématiques de la sauvegarde d’un serveur en informatique traditionnelle ne sont absolument pas comparables à celles de l’informatique virtuelle. Par exemple, un disque dur virtuel qui contient les applications et données est lui-même un ensemble d’informations purement virtuelles.

Si le disque dur virtuel n’est pas pensé pour être sauvegardé comme un disque dur réel, le moindre défaut de construction virtuelle en mode opérationnel peut mélanger des couches de données qui peuvent endommager l’ensemble de la machine virtuelle. Récupérer des données liées aux applications métier est alors beaucoup plus complexe.

Il n’y a aucune fatalité dans la perte de données. Il y a l’analyse consciente des risques, l’implication professionnelle et compétente dans leur gestion, la redondance de la sauvegarde d’informations sur des supports différents… Quand tout est bien pensé, une simple restauration peut tout restituer que ce soit sur de l’informatique traditionnelle ou virtuelle.

Tribune écrite par Paul Dujancourt, directeur général de Kroll Ontrack France, pour le site les Echos.fr.

Sources

  1. Enquête Ipsos de Septembre 2012 et article à lire,
  2. Etude Disaster Recovery Journal et Forrester Research de 2011 « The State Of Disaster Recovery Preparedness » (PDF, 2 Mo).

Laisser un commentaire