Gabriel Chaher (Quantum) : le stockage de données en 2013
Vice-président EMEA/APAC Marketing de Quantum, Gabriel Chaher est aux premières loges pour mesurer l'évolution du stockage des données. Dans cet avis d'expert, il nous donne en exclusivité sa vision du stockage en 2013 et en 7 points.
Recours accru au stockage objets de nouvelle génération pour gérer les Big Data
Les services IT sont confrontés à la densité de stockage accrue des disques durs, à la lenteur de reconstruction des matrices RAID et aux difficultés de récupération des disques défectueux. Ils manquent cruellement d'une solution qui les aidera à résoudre les problèmes de performances et d'accès dans les environnements de Big Data.
La technologie de stockage objets 2.0, qui copie les données et les répartit très efficacement entre de multiples éléments indépendants assurant le traitement et le stockage, leur apporte la réponse qu'ils attendaient et n'est plus réservée aux adeptes de la première heure.
Ce mode de stockage permet d'accéder aux données depuis partout, lève les contraintes liées à la restauration et assure la longévité des données ; il offre une meilleure tolérance aux pannes pour un coût moindre et favorise les initiatives des plus grands datacenters comme le recours accru aux services cloud.
Lire aussi : HPE concrétise son alternative à VMware
Le stockage en mode « scale-out » continue de gagner du terrain
Pour protéger leurs données, la plupart des entreprises ont adopté le « scaling up », une approche où toutes les opérations sont assurées par un seul système, notamment la sauvegarde, la reprise après incident et la restauration.
Si cette méthode est efficace, les entreprises perçoivent le « scaling out » comme une option plus viable. Au lieu de tout concentrer sur un seul système, ce qui nuit aux performances et à la disponibilité, l'approche « scale out » distribue les données et le traitement entre plusieurs appliances, pour une redondance accrue et une capacité de services améliorée.
Tout tourne autour de la valeur des données
Plutôt que d'envisager le coût du stockage des données comme une équation complexe entre capacité utile, alimentation, refroidissement, maintenance et personnel IT, les entreprises devraient l'évaluer proportionnellement à la valeur des données et aux caractéristiques d'accès à ces données.
Lire aussi : De S3 à EFS, le stockage AWS s'adapte à l'IA
En adoptant des stratégies comme le stockage N-tier, elles peuvent conserver les données auxquelles elles accèdent souvent, sur des systèmes plus onéreux et plus performants, et stocker celles qu'elles exploitent plus rarement, sur des systèmes moins coûteux.
Le stockage N-tier s'avère économique et simple pour gérer les données et permet de se concentrer sur ce qui compte plus : le chiffre d'affaires, les bénéfices, la productivité et le délai de commercialisation.
Une fois de plus, l'annonce de la disparition de la bande se révèle infondée
La sauvegarde sur disque et le stockage dans le cloud monopolisant l'attention du secteur, beaucoup spéculaient sur la fin imminente de la bande.
La réalité est tout autre, car la bande a encore un rôle important à jouer. Google l'a d'ailleurs choisie pour la restauration des données Gmail. En effet, moins onéreuse et parfois plus rapide que le disque, elle reste le média de prédilection pour l'archivage à long terme.
De plus, grâce à des avancées récentes comme la technologie LTFS qui permet de l'utiliser quasiment comme un disque dur (déplacement des fichiers par glissement-déplacement et restauration par pointer-cliquer, par exemple), la bande reste attrayante.
La déduplication devient un élément à part entière de la protection des données dans le cloud
Avec l'émergence de la sauvegarde dans le cloud, les entreprises peuvent réduire leurs coûts d'infrastructure interne et de gestion, éviter les dépenses liées à l'entretien de plusieurs datacenters pour la reprise après incident et protéger les données des sites distants.
Toutefois, au vu de la croissance des données, les protéger dans le cloud ne sera viable à terme que si l'on minimise les volumes transférés vers et depuis le cloud. D'où le rôle essentiel de la déduplication pour faire du stockage dans le cloud une option de plus en plus séduisante.
Les environnements de stockage hybrides s'imposent comme la nouvelle norme
Même si les entreprises intègrent les technologies de stockage virtuel et dans le cloud à leurs infrastructures existantes, elles ne sont pas prêtes à abandonner complètement leurs systèmes classiques de stockage sur site.
Lire aussi : Le FinOps, en filigrane de l'AWS re:Invent 2024
C'est pourquoi la gestion des environnements de stockage hybrides prend de l'ampleur, les sociétés adoptant des solutions souples qui leur permettent à la fois de protéger leurs investissements antérieurs et d'exploiter les nouvelles techniques. Par exemple, il existe aujourd'hui des systèmes de déduplication capables de fonctionner en tant qu'appliances physiques ou virtuelles, qui intègrent la sauvegarde et la réplication.
De même, certaines offres cloud permettent à la fois de conserver des copies locales des données de machines virtuelles pour procéder à des restaurations rapides et de mettre à disposition très vite des images complètes des machines virtuelles dans le cloud, exploitables en cas d'incident.
La recherche rapide et automatique de données vidéo facilite la valorisation des données
Les résolutions vidéo plus élevées génèrent des informations plus détaillées et toujours plus de contenu qu'il faut explorer pour trouver des séquences ou des images spécifiques, un vrai travail de titan.
Cette situation amènera plus d'entreprises à utiliser des logiciels d'indexation et de recherche vidéo automatiques pour gérer l'accès, le partage et l'archivage hautes performances de données vidéo toujours plus nombreuses. Fortes de ces outils, les organisations qui exploitent de gros volumes de données vidéo, comme le secteur des médias, pourront ainsi valoriser pleinement leurs contenus numériques.
Sur le même thème
Voir tous les articles Cloud