Comment bâtir une stratégie de sauvegarde des données à l'épreuve du futur ?
Dans son livre "L'Efficacité, Objectif Numéro 1 des Cadres", Peter F. Drucker écrit « Il n'y a rien d'aussi inutile que de faire efficacement ce qui ne devrait pas être fait du tout ».
En d'autres termes, et c'est le crédo des gourous de l'organisation : il ne faut pas confondre l'efficience, qui consiste à bien faire les choses, et l'efficacité, qui consiste à faire les bonnes choses. Surtout à une époque hyper connectée, qui ne nous laisse pas de temps à perdre pour des tâches à faible valeur.
Paradoxalement, l'informatique fait souvent figure de mauvais élève sur ce point. Alors qu'elle a largement contribué à augmenter l'efficacité du travail dans d'autres domaines, elle souffre du syndrome du cordonnier mal chaussé. La protection des données, en particulier la sauvegarde et la récupération, sont des activités où bon nombre de tâches sont encore manuelles. Malgré l'abondance de l'offre, de nombreuses entreprises font perdurer des pratiques et des technologies dépassées.
La sauvegarde et la restauration sont des tâches qui ont tendance à être mal gérées, au pire ignorées, au mieux intégrées dans des projets dont elles ne sont pas l'objet principal, ce qui conduit à des solutions multiples, hétéroclites, cloisonnées, avec des niveaux d'efficacité et de résilience variables. Pourtant, ce sont des activités critiques pour l'entreprise, qui peuvent apporter une réelle valeur commerciale, pour peu qu'on déploie une stratégie globale de gestion des données avec une approche cohérente et homogène à travers l'intégralité des assets virtuels.
Lire aussi : { Tribune Expert } - L'IA : notre plus grande alliée ou notre pire ennemie dans la lutte contre les cybermenaces ?
Recensez pour mieux régner
La première étape pour faire basculer la sauvegarde et la récupération dans une ère moderne est de se donner les moyens de recenser exhaustivement les données à protéger. A notre époque d'informatique en silo, il n'est pas toujours aisé de localiser précisément toutes les données. C'est pourtant un prérequis inévitable pour les protéger efficacement.
Les applications et leurs données ne sont plus nécessairement confinées au niveau des datacenters. Elles peuvent être stockées presque partout : sur des ordinateurs de bureau, des serveurs, des réseaux de stockage SAN, des appareils NAS distribués et, de plus en plus, sur de multiples plateformes. Sans gestion efficace des copies, les données peuvent être massivement dupliquées, ce qui entraîne non seulement des silos supplémentaires, mais aussi une occupation croissante de l'espace de stockage et donc des coûts, sans ajouter de fonctionnalité ou de valeur.
Il est toujours possible de tout sauvegarder sans distinction, mais c'est rarement une solution idéale. Une approche intelligente implique donc de rationaliser et hiérarchiser les sauvegardes. Cette hiérarchisation doit cependant être mise au point par des humains et pas par la technologie. Elle doit se construire en répondant à des questions telles que : Quel est l'impact commercial si nous perdons cette application et/ou ces données ? Combien de temps l'entreprise peut-elle se passer d'elles ? Comment pouvons-nous minimiser l'impact ou réduire le temps d'arrêt, ou les deux ?
Modernisez les processus
L'autre exigence d'une modernisation de la protection des données est un changement majeur de mentalité. Oubliez les « tâches » et les « fenêtres » de sauvegarde ou le fait de mettre les systèmes hors ligne pour que les sauvegardes puissent se faire. La technologie a évolué et permet des pratiques plus souples. Elle permet par exemple de prendre des instantanés en direct à tout moment sans que cela affecte la disponibilité.
Oubliez aussi les bandes. Il existe aujourd'hui une multitude d'alternatives, sur site, distantes, cloud, capables de répondre à une variété de besoins et de budgets. Il est désormais possible de répliquer en continu des applications critiques et de basculer simplement vers une copie en cas de panne du système principal. Vous pouvez même souscrire à des services de reprise immédiate après sinistre en continu (DRaaS).
Cela ne veut pas dire que vous devez oublier l'essentiel. Comme la règle 3-2-1 de la sauvegarde qui dit de toujours conserver trois copies complètes des données - deux stockées localement, mais sur des supports différents, plus au moins une hors site, par exemple chez un fournisseur de cloud qui peut remplacer avantageusement un système WORM (write once, read many).
Vous ne devez pas non plus oublier de contrôler la parité des sauvegardes, la conformité des données et les éventuels logiciels malveillants qui peuvent se dissimuler dans vos sauvegardes. D'autant plus que les attaques par ransomware, qui affectent régulièrement les sauvegardes, sont de plus en plus insidieuses et constituent la principale ligne de défense des entreprises, comme nous venons de le voir avec le géant de l'automobile Honda.
Enfin, persuadez-vous que les fournisseurs de services cloud ne constituent pas systématiquement des sauvegardes des données qui leur sont confiées. C'est possible, mais cela dépend souvent des clauses du contrat. Cela s'applique autant aux produits SaaS (tels que Microsoft 365 et Google G-Suite) qu'à des plateformes d'infrastructure plus larges comme Azure et AWS.
Automatisez
La manière la plus efficace de réduire le temps passé à exécuter des processus de sauvegarde et de restauration est sans doute d'automatiser. Et cela ne signifie pas seulement automatiser les 'tâches', mais également le plus grand nombre possible de processus de sauvegarde et de récupération, des plus simples aux plus complexes.
Les missions de récupération les plus courantes, par exemple, ne sont pas nécessairement de l'ordre de la récupération après sinistre. Il s'agit plutôt d'un fichier, d'un lecteur ou d'une application unique et, à ce titre, peuvent être automatisés à l'aide d'outils en libre-service qui permettent à chaque usager d'effectuer l'opération lui-même si besoin.
Les reprises après sinistre complet sont beaucoup plus rares, mais plus difficiles à automatiser. Principalement en raison de la nécessité de récupérer plusieurs applications, services et sources de données, qui dépendent à leur tour d'autres, éventuellement sur des plateformes différentes. De plus, la plupart des récupérations exigent que les systèmes soient remis en ligne dans un ordre très précis.
Peu d'organisations sont en mesure de répéter des reprises après sinistre à une telle échelle, avec une représentation précise de l'environnement le plus récent, de sorte que les processus impliqués doivent être largement documentés. Cependant, dans les équipes informatiques aux ressources insuffisantes, cela arrive rarement et il est peu probable que la documentation si elle est produite, soit tenue à jour. La réponse à ce problème est ce qu'on appelle l'automatisation des runbooks, un outil de plus en plus courant qui peut être utilisé pour spécifier l'ordre de récupération et lancer les processus de récupération requis d'un simple clic.
Ainsi, pour poursuivre l'idée de M. Drucker, on optimise souvent les choses en se fondant sur le passé. Or, tout l'exercice d'une procédure de récupération efficace consiste à optimiser pour le futur.
Nous sommes en 2020, et les données sont un bien plus précieux aujourd'hui qu'il y a dix ans. Il est essentiel d'apprendre à mieux les connaître et à comprendre comment les métiers souhaitent les utiliser. Cela permettra de mieux comprendre les besoins et signifiera qu'au lieu de vous concentrer sur une amélioration fractionnée de votre processus existant, vous pourriez en faire un atout et même une source de valeur tout en augmentant votre tranquillité d'esprit.
Sur le même thème
Voir tous les articles Data & IA