Pour gérer vos consentements :

DOSSIER: Consolider, sécuriser les infrastructures virtualisées - serveurs et stockage

Publié par La rédaction le | Mis à jour le

1- Un partenariat original autour d’une architecture

La virtualisation touche aujourd’hui tous les sous-ensembles du ‘data center’ . D’où l’apparition d’alliances stratégiques rapprochant des acteurs clés du marché. Ce dossier récapitule la coopération développée entre Cisco, VMware et NetApp afin d’apporter une réponse aux nombreuses questions que soulève ce processus de virtualisation des ressources informatiques: quelles options d’architecture? Quelles possibilités d’extension ? Quels dispositifs de sécurisation ?…  Ce document de synthèse est construit sur quatre volets:

1- Un partenariat original autour d’une architecture

2- Les atouts de la solution Cisco, NetApp, VMware

3- L’architecture FlexPod en 3 couches

4- La qualité de service de bout en bout : comment ?

______

1 – Un partenariat original autour d’une architecture

En janvier 2010, Cisco, NetApp et VMware ont officialisé un partenariat  original pour proposer aux entreprises une architecture de data center standardisée, packagée et validée par ces trois acteurs. Cette architecture, dénommée Secure Multi Tenancy (SMT) doit permettre, aux entreprises qui l’adoptent, d’accélérer leur transition vers une infrastructure IT partagée et virtualisée de bout en bout. Ceci grâce à des « solutions cohérentes et éprouvées » simplifiant le déploiement et diminuant les risques. L’un des éléments importants de cette architecture SMT est sans doute la sécurisation: elle est dite « totale » en usage colocatif, c’est à dire utilisée par plusieurs ‘colocataires’ – entreprises ou entités utilisatrices, d’une même infrastructure serveurs, réseau et stockage.

Jusqu’à FlexPod for VMware

« L’architecture SMT engage les trois partenaires pour garantir une interopérabilité complète entre leurs solutions, avec une validation exhaustive par chacun d’eux », explique Bruno Picard, directeur technique de NetApp France. Cette validation entre dans la catégorie des CVD,  ‘Cisco Validated Design’ : les développements ont été testés et validés par les équipes d’ingénieurs des trois partenaires au sein des labos de Cisco.

Cisco, NetApp et VMware sont passés à une étape supérieure : ils ont coopéré pour la mise à disposition d’une solution complète appelée FlexPod for VMware.

« Cette infrastructure a été optimisée pour gérer un ensemble de charges de travail applicatives mixtes. Elle  est adaptée à une infrastructure de postes de travail ou de serveurs virtuels, une ‘colocation’ sécurisée ou des environnements ‘cloud’ », expliquent les trois partenaires.

_____________________________

Quatre piliers indispensables

Pour un environnement mutualisé et sécurisé, quatre piliers sont utiles et nécessaires –estiment les trois partenaires –Cisco, NetApp et VMware:

1•    Séparation sécurisée : un ‘colocataire’ (‘tenant’) ne doit en aucun cas pouvoir accéder au serveur  virtuel, au réseau ou aux ressources de stockage d’un autre ‘colocataire’. Tous les ‘colocataires’ doivent être séparés les uns des autres de manière sûre.

2•    Garantie de service : les performances de calcul, de réseau et de stockage doivent être isolées et garanties, aussi bien en cas de pannes ou de charges anormales générées par certains colocataires que pendant les périodes de fonctionnement normal.

3•    Disponibilité : l’infrastructure doit assurer que les ressources nécessaires de calcul, de réseau et de stockage demeurent disponibles face à des pannes potentielles.

4•    Gestion/administration : la capacité à fournir, gérer et contrôler rapidement et facilement toutes les ressources est essentielle.

_____________________________

Les enjeux de la virtualisation (Etude ESG)

Une étude récente (fin 2010), réalisée par le cabinet Enterprise Strategy Group (ESG), confirme qu’en matière de virtualisation d’infrastructure les priorités restent d’abord la consolidation des serveurs et ensuite celle des unités de stockage: amélioration des process de sauvegarde et de restauration des machines virtuelles – à égalité avec l’extension du nombre d’applications en environnement virtualisé.

_____________________________

Les applications cibles

Parmi les applications concernées par cette offre, NetApp cite notamment la messagerie. Celle-ci est traditionnellement gérée et déployée comme un « silo » indépendant. FlexPod offre maintenant la possibilité de la transférer ailleurs, sur une autre plate-forme mutualisée, moins coûteuse.

D’autres applications sont visées, comme, par exemple, l’environnement ERP avec son infrastructure de stockage associée qui, repose typiquement sur du SAN (Storage Area Network), mais supporte aussi des serveurs de fichiers, de l’archivage légal (ECM), etc.

« L’enjeu c’est de faire migrer ces silos vers une infrastructure ‘multi-tenant’ -c’est-à-dire une offre en ‘colocation’, auprès de plusieurs organisations indépendantes « colocataires », précise Bruno Picard. Il peut s’agir d’une configuration en ‘cloud’ public ou privé. C’est-à-dire une configuration multi-clients, a priori, mais qui peut tout à fait se partager au sein d’un même groupe (les clients dans ce cas étant des « Business Units » ou des filiales).

___________________________________________

Vidéo: table ronde Cisco, NetApp, VMware
Bruno Dutriaux, ‘business development manager’ chez Cisco France, Bruno Picard, directeur technique de NetApp France, et Sylvain Siou, directeur technique de VMware France, expliquent les enjeux des datacenters virtualisés.

Ce document de synthèse est construit sur quatre volets:

2- Les atouts de la solution Cisco, NetApp, VMware

3- L’architecture FlexPod en 3 couches

4- La qualité de service de bout en bout : comment ?

2 -Les atouts de la solution Cisco, NetApp, VMware

Les avantages sont multiples, affirment les trois partenaires:

– une architecture unifiée : « NetApp s’est toujours engagé à proposer des solutions de stockage évolutives, sans rupture technologique dans la gamme ». Toutes les solutions offrent un accès multi-protocolaire. Point plus important, sans doute: les fonctionnalités disponibles (déduplication, provisionnement fin, clones fins, compression, réplication, sauvegarde…), les processus, les procédures et les tâches d’administration/supervision le sont quelle que soit la technologie mise en œuvre.

– une efficacité du stockage inégalée: « En mettant en œuvre les bonnes pratiques NetApp, on peut parvenir à des gains de volumétrie supérieurs à 50% », affirme Bruno Picard. La déduplication et la compression de données sont optimisées, car elles sont déjà « embarquées », de même que les fonctions de ‘provisionnement’ fin et de clones fin. « Plus de 2 exabytes (deux fois 1024 pétas !) de stockage ont été gagnés par nos clients en implémentant ces fonctionnalités embarquées. Chez certains clients comme IFP Energies Nouvelles, Direct Energie ou Telehouse, le taux varie de 50 à 80 % .»

– une offre évolutive verticalement et horizontalement sans rupture

« NetApp s’est toujours engagé à proposer des solutions de stockage évolutives, sans rupture technologique dans la gamme ». En clair, cela signifie que l’on peut démarrer avec une petite configuration pour évoluer ensuite progressivement: c’est le même microcode, les mêmes logiciels, les mêmes outils d’administration et de supervision. « Il est donc possible de migrer d’une baie A vers une baie B de manière totalement transparente».

Concrètement,  on peut évoluer de la gamme FAS2020 à la gamme FAS6280, sans rupture, en croissant de 20 To  à 2,4 petabytes, pour des performances d’I/O records (des centaines d’entrées/sorties par seconde !).

Faire évoluer son infrastructure peut aussi se faire de manière « horizontale » par ajout d’une nouvelle brique d’infrastructure (nouveau Pod). Data Motion de NetApp permet alors de transférer un colocataire en toute sécurité de l’ancienne infrastructure vers la nouvelle.

– une protection des données intégrée

« Que le ‘nuage’ soit interne ou externe, privé ou public, il faut garantir le plus haut niveau de sécurité des données», relève Bruno Picard.

« Il existe, pour cela, un ensemble de mécanismes embarqués dans les solutions NetApp allant du ‘snapshots’ jusqu’à la fonctionnalité de cluster étendu (Metrocluster), qui facilitent la disponibilité et l’intégrité et la sécurité des données. »

– la  ‘ colocation ’ (ou le ‘ multi-tenancy ’) sécurisée : l’offre mise au point par NetApp, VMware et Cisco intègre une « sécurité généralisée, globale  de bout en bout».

« Le problème principal est celui de l’étanchéité entre les applications », souligne Bruno Picard. « Dans un environnement de baies virtuelles offert par la solution MultiStore (*), tout est disjoint : les comptes d’administration, les dénominations des domaines et des volumes, etc.»

____

(* ) Cf. ‘MultiStore’, compartimentation ; architecture de  baies virtuelles, auditée par KPMG, ou par des opérateurs télécoms.  Multistore est un logiciel appartenant à la bibliothèque NetApp Data ONTAP. Il permet de déployer des systèmes de stockage FAS et de les partitionner en systèmes virtuels indépendants (ou vFiler), chacun étant dédié à un sous-ensemble administré de façon autonome.  Multistore virtualise des ressources de stockage et de réseau en créant de multiples ‘endpoints’ (points de terminaison) pour différents clients ‘stockage’, en les différenciant  selon leur connexion IP. Chaque ‘vFiler‘ a donc un chemin d’accès logique séparé, ce qui le rend inaccessible aux autres ‘vFilers’ . Cf schéma ci-après: comme Multistore protège des intrusions ou attaques.

– les performances : s’il faut donc garantir la sécurité d’étanchéité entre ces environnements hétérogènes, il faut également s’engager sur les performances : temps de réponse, temps de restauration, délais de remise en route, etc.

« Or, ajoute Bruno Picard,  le microcode des solutions NetApp intègre toutes les fonctionnalités nécessaires à la mise en œuvre de SLAs (Service Level Agreement) différenciés entre les colocataires. »

– des process automatisés

Pour provisionner/dé-commissioner, rapidement, des serveurs logiques, des capacités réseau, jusqu’aux unités de stockage des données, les processus sont facilités et automatisés.

___________________________________

Trois options (non exclusives) sont possibles:

En pratique, Cisco, NetApp et VMware proposent trois options:

1- utilisation des outils NetApp

2-intégration à vCenter vSphere de VMware –  y compris le ‘provisionnement’ de l’espace disque ; la réplication ; la sauvegarde ; la restauration ;

3-mise à disposition d’une API,  pour accéder aux environnements des principaux fournisseurs de solutions d’administration/supervision (BMC, HP, CA, IBM Tivoli…) ; donc faciliter l’intégration dans ces environnements.

C’est une offre « exclusivement relayée par des partenaires« :  « Ni nous, ni VMware , ni Cisco n’avons vocation à faire le service nous-mêmes », insiste Bruno Picard.

Cisco et  NetApp, avec VMware, ont ainsi déployé un programme de « partenaires certifiés » :

« Nous sommes là pour construire des architectures, pour proposer les briques de base. Mais ce sont nos partenaires qui composent et intègrent les solutions. »

En France, par exemple, quatre partenaires principaux sont déjà certifiés: APX, OVENCE, SCC et, depuis décembre 2010, Telindus. Ils sont, entre autres, certifiés pour l’offre UCS (Unified Computing Systems) de Cisco.

FlexPod for VMware‘, une offre tri-partite pour des ‘datacenters’ flexibles et efficaces

Cette infrastructure partagée unifiée et pré-testée, co-développée par Cisco  et NetApp, réunit des  composants réseau, stockage et logiciels.

Des configurations ont été pré-dimensionnées, en fonction des besoins de performances.

Ainsi, 5 configurations types ont été définies, pour 5.000 utilisateurs, 10.000, 20.000 utilisateurs et plus.

Côté réseau, l’une des pierres angulaires est l’offre Nexus de Cisco,  multi- protocoles : iSCSI, FC (Fibre Channel),  FCoE (Fibre Channel over Ethernet), NFS –NAS… (cf. encadré ci-après)

« Tout ceci fonctionne sur une infrastructure Ethernet 10 gigabits et/ou Fibre Channel. Et il est possible d’utiliser indifféremment les uns ou les autres ou les combiner. Chez NetApp, toutes les baies de stockage fournissent cette possibilité (attachements multiples).  Et chez VMware, on peut différencier applications ou services selon les protocoles. »

Donc, pour le responsable ‘système’, le choix subsiste. Il reste possible de mixer ces différents protocoles, par exemple en fonction des SLA (service level agreements, ou engagements de qualité de service) ou des compétences en place au sein des équipes IT.

Quels que soient les choix en terme d’utilisation, le système de serveur UCS de Cisco pré-intègre, dans une architecture physique unique, toutes les possibilités. « Chaque serveur d’un système UCS a potentiellement et par simple configuration logique accès à toutes les ressources de stockage connectées quel que soit le protocole (iSCSI, NAS ou FC/FCoE) ».
___________________________________________

Vidéo: table ronde Cisco, NetApp, VMware
Bruno Dutriaux, ‘business development manager’ chez Cisco France, Bruno Picard, directeur technique de NetApp France, et Sylvain Siou, directeur technique de VMware France, expliquent les enjeux des datacenters virtualisés.

Ce document de synthèse est construit sur quatre volets:

2- Les atouts de la solution Cisco, NetApp, VMware

3- L’architecture FlexPod en 3 couches

4- La qualité de service de bout en bout : comment ?

3 – L’architecture FlexPod en 3 couches

À chaque niveau de cette architecture – serveurs, réseau, stockage – les composants matériels et logiciels ont été mis au point « pour offrir sécurité, qualité de service, disponibilité et facilité de gestion ».

Figure 1) Schéma fonctionnel « bout en bout ».

1 – Couche calcul/ serveur

Au niveau de la couche calcul, les logiciels VMware,  vSphere et vCenter Server apportent un environnement robuste de virtualisation de serveur. Il permet l’allocation dynamique des ressources serveur à plusieurs systèmes d’exploitation invités, exécutés sur des ordinateurs virtuels.

VMware vShield Zones assure la sécurité au niveau des activités de calcul. Il s’agit d’un pare-feu virtuel, distribué, dynamique et géré de façon centralisée, fourni avec vSphere 4.0. Il crée des zones de sécurité grâce à la proximité de l’hôte ESX et à la visibilité du réseau virtuel. vShield Zones s’intègre dans VMware vCenter. Il exploite les données virtuelles d’inventaire telles que les vNIC, les groupes de ports, les ‘clusters’ (grappes) et les VLAN pour simplifier la gestion des règles du pare-feu et le provisionnement des zones de confiance. Cette nouvelle façon de créer des règles de sécurité suit les ordinateurs virtuels à l’aide de VMotion. Elle est complètement transparente aux modifications d’adresses IP et à la renumérotation de réseau.

UCS de Cisco (Unified Computing System) est la plate-forme de nouvelle génération pour ‘data centers’. Elle associe ressources de calcul, accès au réseau, accès au stockage et virtualisation au sein d’un système cohérent. L’offre UCS comprend une structure de réseau Ethernet 10 Gigabits à faible latence et sans perte, avec des serveurs x86. C’est une plate-forme intégrée, évolutive et multi-châssis.

2 – Couche réseau à base de switchs Nexus (Cisco)

La couche réseau offre une connectivité sécurisée entre les couches calcul et stockage, ainsi que des connexions vers les réseaux et les clients externes.  Les composants essentiels sont :

•    Cisco Nexus 7000 : il fournit une connectivité Ethernet (LAN) 10Gb/s et 1Gb/s aux réseaux externes. Il est généralement utilisé en cœur de réseau de Data Center.

•    Cisco Nexus 5000 : est un switch 10Gb/s d’agrégation et d’accès multi protocole (Ethernet, FCoE et FC).

•    Cisco Nexus 1000V : ce switch logiciel est implémenté dans le noyau VMware afin de fournir des services Cisco VN-Link pour une intégration étroite des machines virtuelles (« VM ») à l’environnement réseau. Pendant un VMotion, il permet la permanence des caractéristiques réseau de la VM.

•    Cisco MDS 9124 : ce switch Fibre Channel offre une connectivité SAN afin de permettre entre autres le « boot on SAN » des instances VMware ESX exécutées sur le système UCS.

3 – Couche stockage de NetApp

La couche stockage se compose des systèmes de stockage unifié de NetApp, capables de fournir simultanément une connectivité SAN et une connectivité Ethernet (NFS, iSCSI, FCoE). Le stockage NetApp peut également répondre aux besoins de stockage spécifiques de n’importe quelle application en cours d’exécution. L’exécution de l’environnement VMware sur Ethernet permet de simplifier à l’extrême l’environnement de gestion et de réduire ainsi les coûts.

Le logiciel NetApp MultiStore offre au stockage partagé un niveau de sécurité et d’isolation comparable à celui des baies de stockage isolées physiquement. MultiStore permet de créer plusieurs partitions logiques complètement isolées sur le même système de stockage, et ainsi de partager le stockage sans mettre en péril la confidentialité des données. Les conteneurs de stockage peuvent être transférés de façon indépendante et transparente entre les systèmes de stockage.

___________________________________

Le ‘provisionnement’ des colocataires

Lorsqu’un colocataire est ‘provisionné’ à l’aide de cette architecture, l’environnement qui en résulte est équipé de divers éléments :

•  au moins un ordinateur virtuel ou un vApp

•  au moins un contrôleur de stockage virtuel (unité vFiler)

•  au moins un VLAN pour l’interconnexion et l’accès à ces ressources.

« Ensemble, ces entités forment une partition logique. Le colocataire ne peut pas violer les limites de cette partition. Outre la sécurité, nous voulons aussi être certains que les activités qui se déroulent sur la partition d’un colocataire n’interfèrent pas indirectement avec les activités en cours sur la partition d’un autre », affirment NetApp et Cisco.

Ce document de synthèse est construit sur quatre volets:

2- Les atouts de la solution Cisco, NetApp, VMware

3- L’architecture FlexPod en 3 couches

4- La qualité de service de bout en bout : comment ?

4 – La qualité de service de bout en bout : comment ?

par Chris Naddeo, ingénieur Marketing et Technique pour UCS , Cisco.  (résumé)

Très peu de projets s’attaquent à la question de la qualité de service de bout en bout. En général, un mécanisme de qualité de service est activé au niveau d’une couche, dans l’espoir que les couches supérieures et inférieures en bénéficieront aussi.

Oui, mais toutes les applications sont dotées de caractéristiques différentes : certaines exigent une capacité de calcul importante tandis que d’autres pèsent lourdement sur le réseau ou sur les volumes d’E/S (entrées/sorties ou I/O). Se contenter de limiter les E/S n’a que peu, voire aucun impact sur le contrôle de l’utilisation du CPU par une application exigeant une capacité importante du processeur.

Cisco, NetApp et VMware ont conçu un mécanisme approprié pour chaque couche, à partir de leurs propres développements.

Quand des ressources ne sont pas utilisées, les applications importantes doivent pouvoir les utiliser si nécessaire. Cela peut permettre à une application de faire face à des circonstances imprévues. En revanche, en cas de conflit, tous les colocataires doivent avoir la garantie de pouvoir bénéficier du niveau de service auquel ils ont souscrit.

Un autre principe de conception a consisté à définir la classe de service au plus près de l’application, à ‘mapper’ cette valeur dans une définition de règle et à s’assurer que la règle en question était appliquée uniformément sur toutes les couches, conformément aux qualités propres à chaque couche. Pour assurer cette qualité de service, trois mécanismes ont été utilisés pour chaque couche :

__________

Trois mécanismes de qualité de service

1 – Couche calcul /serveur

Pour  la virtualisation des serveurs, VMware vSphere offre de nombreuses fonctions visant à assurer une bonne utilisation des ressources, notamment du processeur et de la mémoire. Le pool de ressources vSphere est une abstraction logique permettant une gestion flexible des ressources. Les pools de ressources peuvent être groupés en hiérarchies et utilisés pour partitionner de manière hiérarchique les ressources disponibles du processeur et de la mémoire. En configurant correctement les attributs du pool de ressources concernant les réserves, les limites, les partages et les réserves extensibles, on peut effectuer un contrôle très fin et accorder la priorité à un colocataire sur un autre serveur en cas de conflit au niveau des ressources.

VMware Distributed Resource Scheduler (DRS) permet de créer des clusters contenant plusieurs serveurs VMware. Ce DRS contrôle en permanence l’utilisation des pools de ressources et alloue de manière intelligente les ressources disponibles aux machines virtuelles. DRS est entièrement automatisé au niveau du cluster, de sorte que les charges de l’infrastructure et de la machine virtuelle du colocataire font l’objet d’un équilibrage de charge entre tous les serveurs ESX d’un cluster.

En ce qui concerne le matériel, Cisco UCS utilise Data Center Bridging (DCB) pour gérer tout le trafic au sein du système Cisco UCS. Cette amélioration du standard Ethernet divise la bande passante du canal Ethernet en 8 voies virtuelles. Les classes du système déterminent comment la bande passante DCB est allouée au sein de ces voies virtuelles, à destination du système Cisco UCS complet. Chaque classe réserve un segment spécifique de la bande passante pour un certain type de trafic. Cela a pour effet de créer un certain degré de gestion du trafic, même dans un système fortement chargé.

2 – Couche ‘réseau’

Au niveau du réseau, le trafic est segmenté en fonction de la classe de service attribuée au préalable par le Nexus 1000v et observée ou réglementée par le système UCS de Cisco.

Il existe deux méthodes distinctes pour offrir une protection continue des performances :

1•    La file d’attente permet aux périphériques réseau de planifier la livraison de paquets sur la base des critères de classification. En cas de surexploitation des ressources, la possibilité de déterminer quels paquets doivent être livrés en premier génère, au bout du compte, une différence de temps de réponse pour les applications importantes.

2•    Le contrôle de la bande passante autorise aux périphériques réseau un nombre adéquat de tampons par file d’attente, de façon à éviter que certaines classes de trafic n’utilisent à outrance la bande passante. Cela donne aux autres files d’attentes une bonne chance de répondre aux besoins des classes restantes. Le contrôle de la bande passante va de pair avec la file d’attente. En effet, la file d’attente détermine quels paquets seront livrés en premier, tandis que la bande passante détermine la quantité de données qui peut être envoyée pour chaque file.

Le switch Nexus 1000V de Cisco est utilisé pour la fonction d’application de règles et de limitation du débit pour trois types de trafic :

1•    VMotion. VMware recommande une interface Gigabit dédiée pour le trafic  VMotion. Dans cette infrastructure, le trafic VMotion est dédié à l’aide d’un port VMkernel non routable. Afin de correspondre aux environnements traditionnels, le trafic VMotion est fixé à 1 Gbit/s. Cette limite peut être élevée ou abaissée selon les besoins.

2•    Services différenciés de transaction et de stockage. Dans une structure mutualisée, différentes méthodes sont utilisées pour générer des services différenciés. Par exemple, on a recours à une file « prioritaire » pour les services les plus importants et à une file «sans perte » pour le trafic qui ne peut pas être abandonné mais qui peut supporter un certain retard.

3•    Gestion: le VLAN de gestion est activé avec une limitation du débit fixée à 1 Gbit/s.

3 – Couche stockage : MultiStore et FlexShare

Dans l’environnement d’exploitation Data ONTAP de NetApp, le logiciel MultiStore procure aux environnements mutualisés une isolation sécurisée.

Au niveau du stockage, pour assurer la qualité de service, il est nécessaire de contrôler la mémoire cache du système de stockage et le degré d’utilisation du processeur. Il faut également s’assurer que les charges de travail sont réparties sur un nombre approprié de ressources processeurs. NetApp a développé FlexShare pour contrôler l’attribution de priorités aux charges de travail.

Avec FlexShare, trois paramètres indépendants peuvent être réglés pour chaque volume de stockage ou chaque unité vFiler dans une configuration MultiStore. On peut ainsi accorder la priorité à une partition colocataire par rapport à une autre.

Le ‘thin provisioning’ (provisionnement fin) de NetApp offre aux colocataires un certain niveau de « stockage à la demande ». La capacité brute est considérée comme une ressource partagée et n’est consommée que selon les besoins. Lorsque l’on déploie des ressources à ‘provisionnement fin’ dans une configuration mutualisée, on doit définir des règles de croissance automatique du volume et de suppression automatique de Snapshots.

La croissance automatique du volume permet à un volume de se développer selon des incréments définis, jusqu’à un seuil prédéfini. La suppression automatique permet de supprimer automatiquement les copies Snapshot les plus anciennes lorsqu’un volume est presque plein.

En associant ces fonctions, on peut accorder aux colocataires importants la priorité pour la croissance d’un volume, à partir de l’espace réservé du pool partagé. À l’inverse, les colocataires de moindre niveau doivent faire appel à un administrateur.

Chris Naddeo (*)

Ingénieur Marketing et Technique pour UCS , Cisco Systems

(*) Chris Naddeo a rejoint Cisco pour se consacrer à la conception d’architectures de stockage optimales pour l’offre UCS ( Unified Computing System) de Cisco.  Il a notamment travaillé un an chez NetApp en tant qu’ingénieur-consultant système pour Oracle et Data ONTAP GX. Il a également exercé pendant neuf ans comme responsable produit chargé des logiciels de stockage chez Veritas.
___________________________________________

Vidéo: table ronde Cisco, NetApp, VMware
Bruno Dutriaux, ‘business development manager’ chez Cisco France, Bruno Picard, directeur technique de NetApp France, et Sylvain Siou, directeur technique de VMware France, expliquent les enjeux des datacenters virtualisés.

La rédaction vous recommande