Recherche

Hitachi Data Systems TagmaStore : des données en bon ordre

Réduire le TCO de son infrastructure de stockage de quelque 40 %, c'est le but de la nouvelle plate-forme TagmaStore de HDS

Publié par le - mis à jour à
Lecture
4 min
  • Imprimer

Ces réductions de coût ne sont pas seulement liées à l'amélioration de la productivité des administrateurs; elles sont aussi la conséquence de la réduction des coûts de licences logicielles associées aux processus de réplication. L'idée d'Hitachi, pour apporter une telle performance (32 peta-octets effectivement gérés et une compatibilité en amont avec les plates-formes de la marque ainsi qu'avec celles de HP et de Sun) a été d'introduire un nouveau  »

paradigme » sur ce marché, celui d'une plate-forme de stockage universelle permettant une gestion hétérogène du stockage. Des innovations allant par trois La plate-forme TagmaStore s'appuie sur trois innovations majeures : ? le 'multi-tier storage', autrement dit la possibilité d'agréger des unités de stockage externes pour hiérarchiser la qualité de service en fonction de l'importance accordée aux données (ces dernières n'ayant pas le même niveau critique selon qu'elles concernent des transactions - niveau le plus élevé -, des actes de production - niveau médian -, ou de simples courriers électroniques - niveau de données dites statiques). Cette approche permet de rajeunir son infrastructure tout en réutilisant les unités déjà en place, mais en les faisant bénéficier de nouvelles fonctionnalités. Par ailleurs, ce système apporte une uniformisation au niveau des interfaces applicatives ; ? le partitionnement logique. Celui-ci permet de segmenter les données selon leur usage et d'isoler le système de stockage en divers environnements, ce qui augmente d'autant sa fiabilité et son niveau de sécurité. On dispose ainsi de ressources de stockage dédiées qui garantissent ainsi le niveau de service requis par telle ou telle application ; ? la réplication longue distance, multisite, multiconstructeur. La solution proposée garantit l'absence de pertes de données et évite la multiplication des copies intermédiaires. C'est la première solution asynchrone longue distance à garantir une telle infaillibilité. Qui plus est, elle permet de s'affranchir de la taille et de la vitesse des liens télécoms, ce qui garantit une réduction des coûts associés à la réplication. On réduit ainsi le nombre de plates-formes concernées et surtout on peut effectuer des copies intégrales de site à site sans crainte d'une altération possible desdites données, cauchemar pour tous les responsables du stockage des 'data'. Un triple bénéfice Ces trois innovations ont un impact évident sur les trois préoccupations majeures des administrateurs stockage : ? le cycle de vie de la donnée. Grâce au 'multi-tier storage', il est facile de choisir le bon support de conservation des données en fonction de leur importance et donc de dégager les ressources adéquates selon l'applicatif concerné; ? la consolidation applicative. Grâce au partitionnement, les données concernant une application métier ne seront pas mélangées avec celles concernant un simple applicatif bureautique. Cette virtualisation permet notamment une mutualisation des ressources et aussi par voie de conséquence une meilleure répartition de la charge des E/S ; ? la réplication universelle ainsi proposée permet de concevoir une reprise d'activité après sinistre à longue distance et en mode asynchrone de la même manière qu'un plan de reprise synchrone actuel, donc d'étendre les distances entre les sites, un must dans un monde post 11 septembre. Qui plus est, une telle approche a pour corollaire l'homogénéisation des processus du plan de reprise d'activité, processus qu'elle sécurise plus avant. Architecture 'crossbar' : Mo croisés S'agissant de la plate-forme elle-même (principalement destinée, on s'en doute, aux très grands comptes), tout ceci est rendu possible grâce à l'architecture matricielle commutée du type 'crossbar' (3e génération -une exclusivité Hitachi); celle-ci permet d'atteindre des débits exceptionnels (2 millions d'entrées/sorties par seconde); elle a été conçue pour fonctionner avec les liaisons FC 2 Gbps (fibre channel). Cette architecture propriétaire offre aussi l'avantage de l'extensibilité, puisqu'elle fonctionne également sur la gamme Lightning 9900V et permet donc de gérer aussi bien en interne qu'en externe le stockage attaché au réseau SAN. Dans un tel contexte et grâce au cadre logiciel créé par la suite Hi-Command (laquelle respecte les normes édictées par la SNIA, dont l'interface d'interopérabilité avec les autres plates-formes) il est désormais possible de gérer toutes les ressources de stockage comme un seul et même ensemble d'une capacité infinie, puisque toutes les machines tierces bénéficient de cette plate-forme universelle. On peut donc ainsi copier, répliquer, migrer des données depuis n'importe quelle plate-forme au sein de cet ensemble universalisé. Bref, beaucoup de points forts qui confirment l'avancée technologique à laquelle Hitachi Data Systems veut s'accrocher.

Sur le même thème

Voir tous les articles Business

Livres Blancs #security

Voir tous les livres blancs

Vos prochains événements

Voir tous les événements

Voir tous les événements

S'abonner
au magazine
Se connecter
Retour haut de page