Comment optimiser l’usage d’une ressource informatique en la distribuant ? C’est l’objectif de la première incarnation de la virtualisation. On considère qu’elle remonte aux années 1960, sur les mainframes IBM. Le groupe américain n’en est pas l’instigateur, mais a pris le train en marche, avec un porte-drapeau nommé CP/CMS. Cette famille de systèmes expérimentaux met en œuvre le concept de time-sharing, théorisé à la fin des années 1950 et objet des attentions du monde scientifique, notamment du MIT.
Son levier : un hyperviseur (CP, « Control Program ») capable de diviser un mainframe en plusieurs environnements virtuels. Chacun exécute une instance de l’OS léger CMS et peut exploiter une partie du hardware à disposition.
Les années 1970 marquent un basculement vers des architectures qui se prêtent « nativement » à la virtualisation. À commencer par les ordinateurs S/370, sur lesquels s’exécute VM/370, une réimplémentation de CP/CMS.
Avec l’avènement des PC et du modèle client-serveur, la virtualisation répond à plusieurs enjeux. En particulier dans le domaine applicatif. Entre autres, la compatibilité descendante des logiciels et leur portabilité entre machines physiques. L’adaptation à la plateforme x86 se fait en premier lieu avec des hyperviseurs dits de type 2. C’est-à-dire exécutés à l’intérieur d’un système d’exploitation, par opposition à ceux de type 1, exécutés directement sur le matériel… comme CP.
À son arrivée sur le marché, en 1999, VMware ne fait pas exception. « C’est comme IBM VM/390, mais pour les PC x86, et ça ressemble à une application standard », expliquait l’entreprise américaine à propos de son premier produit, lancé à quelques semaines d’intervalle sur Linux et Windows NT. Intégralement logiciel, il est vendu environ 300 $ par utilisateur.
À la différence d’un émulateur, il donne à l’OS invité un accès direct au CPU, à la RAM et à la mémoire de stockage. L’isolation des VM – qui pouvaient néanmoins partager réseau, stockage et presse-papiers – apporte des garanties de stabilité et de sécurité.
De nombreuses capacités manquent à l’appel : VM multiprocesseurs, accélération graphique matérielle, prise en charge des périphériques USB, amorçage sur SCSI, etc. Mais VMware change vite de dimension, à la faveur d’un tour de table emmené par… Dell, son futur propriétaire. En 2001, il investit l’univers des serveurs, avec un hyperviseur de type 2 (GSX), puis avec un natif (ESX, devenu vSphere).
Les années 2000 voient émerger des concurrents, dont Microsoft, avec Hyper-V, et Citrix, avec XenServer. Ainsi qu’une foule de logiciels libres, à l’image de KVM. Intel et AMD suivent le mouvement en intégrant à leurs processeurs des instructions de virtualisation matérielle.
De nouvelles formes de virtualisation au niveau de l’OS prennent aujourd’hui leur envol. Les moteurs de conteneurs en sont les principaux représentants. Ils entrent dans la catégorie des « isolateurs », destinés à exécuter des applications dans des zones ou des contextes.
Découvrez le numéro spécial 20 ans de Silicon Magazine
Dans un avis consultatif, l'Autorité de la concurrence a identifié les risques concurrentiels liés à…
OpenAI signe un « partenariat de contenu stratégique » avec Time pour accéder au contenu…
Au lendemain du rejet de sa proposition de restructuration, David Layani annonce sa démission du…
Après un an, Hugging Face a revu les fondements de son leaderboard LLM. Quels en…
Mozilla commence à expérimenter divers LLM dans Firefox, en parallèle d'autres initiatives axées sur l'intégration…
VMware met VCF à jour pour y favoriser la migration des déploiements qui, sur le…