{ SILICON - 20 ANS } - Virtualisation : des mainframes aux conteneurs
Quelles sont les technologies disruptives qui ont marqué la période 2000-2020 ? À l'occasion de son 20e anniversaire, Silicon effectue un petit retour vers le passé. Aujourd'hui : la virtualisation.
Comment optimiser l'usage d'une ressource informatique en la distribuant ? C'est l'objectif de la première incarnation de la virtualisation. On considère qu'elle remonte aux années 1960, sur les mainframes IBM. Le groupe américain n'en est pas l'instigateur, mais a pris le train en marche, avec un porte-drapeau nommé CP/CMS. Cette famille de systèmes expérimentaux met en ouvre le concept de time-sharing, théorisé à la fin des années 1950 et objet des attentions du monde scientifique, notamment du MIT.
Son levier : un hyperviseur (CP, « Control Program ») capable de diviser un mainframe en plusieurs environnements virtuels. Chacun exécute une instance de l'OS léger CMS et peut exploiter une partie du hardware à disposition.
Virtualisation à tous les étages
Les années 1970 marquent un basculement vers des architectures qui se prêtent « nativement » à la virtualisation. À commencer par les ordinateurs S/370, sur lesquels s'exécute VM/370, une réimplémentation de CP/CMS.
Avec l'avènement des PC et du modèle client-serveur, la virtualisation répond à plusieurs enjeux. En particulier dans le domaine applicatif. Entre autres, la compatibilité descendante des logiciels et leur portabilité entre machines physiques. L'adaptation à la plateforme x86 se fait en premier lieu avec des hyperviseurs dits de type 2. C'est-à-dire exécutés à l'intérieur d'un système d'exploitation, par opposition à ceux de type 1, exécutés directement sur le matériel. comme CP.
Lire aussi : HPE concrétise son alternative à VMware
VMware commence par les PC
À son arrivée sur le marché, en 1999, VMware ne fait pas exception. « C'est comme IBM VM/390, mais pour les PC x86, et ça ressemble à une application standard », expliquait l'entreprise américaine à propos de son premier produit, lancé à quelques semaines d'intervalle sur Linux et Windows NT. Intégralement logiciel, il est vendu environ 300 $ par utilisateur.
À la différence d'un émulateur, il donne à l'OS invité un accès direct au CPU, à la RAM et à la mémoire de stockage. L'isolation des VM - qui pouvaient néanmoins partager réseau, stockage et presse-papiers - apporte des garanties de stabilité et de sécurité.
De nombreuses capacités manquent à l'appel : VM multiprocesseurs, accélération graphique matérielle, prise en charge des périphériques USB, amorçage sur SCSI, etc. Mais VMware change vite de dimension, à la faveur d'un tour de table emmené par. Dell, son futur propriétaire. En 2001, il investit l'univers des serveurs, avec un hyperviseur de type 2 (GSX), puis avec un natif (ESX, devenu vSphere).
Les années 2000 voient émerger des concurrents, dont Microsoft, avec Hyper-V, et Citrix, avec XenServer. Ainsi qu'une foule de logiciels libres, à l'image de KVM. Intel et AMD suivent le mouvement en intégrant à leurs processeurs des instructions de virtualisation matérielle.
De nouvelles formes de virtualisation au niveau de l'OS prennent aujourd'hui leur envol. Les moteurs de conteneurs en sont les principaux représentants. Ils entrent dans la catégorie des « isolateurs », destinés à exécuter des applications dans des zones ou des contextes.
Lire aussi : Finalement, AWS va revendre du VMware
Découvrez le numéro spécial 20 ans de Silicon Magazine
Sur le même thème
Voir tous les articles Cloud