Pour gérer vos consentements :

Multicloud : la portabilité des données passent par les appliances

Impossible de saturer le réseau pour transférer de très gros volumes en quelques heures, d’où l’intérêt des supports de transfert physiques : des racks transportables ou d’énormes valises, voire des conteneurs.  Mais cela nécessite plusieurs jours, voire des semaines.

Azure Data Box : 100 To de capacité totale par commande

Plusieurs offres existent cependant. Elles  reposent sur des équipements sécurisés capables de transférer jusqu’au péta-octets (un millier de téra-octets), par fraction de 100 To.

Avec  Snowball, AWS propose sur des équipements sécurisés capables de transférer jusqu’au péta-octets (un millier de téra-octets), par fraction de 100 To.

Cloud Mass Data Migration permet de migrer des dizaines de To vers Bluemix en passant par la route.

IBM est dans le même ordre de grandeur – 120 To par unité – avec sa caisse transportable sur roulette « Cloud Mass Data Migration« .

Chez Microsoft, il existe également un service  « Azure Import/Export »  avec l’Azure Data Box ; ou encore, l’appliance de transfert GTA (25 jours pour transférer 1 Po, à un débit de plusieurs Gbps) chez Google.

Des solutions coûteuses de transfert physiques

L’Appliance Snowball de AWS.

Les coûts sont très conséquents (près de 2 000 euros pour 500 To), proportionnels aux volumes et à la rapidité du transport, généralement confié à des sociétés spécialisées proches du convoyage de fonds.

Officiellement, Microsoft, Google, Facebook coopèrent depuis 2017 sur un projet baptisé DTP pour Data Transfer Project, mais les entreprises ne semblent pas en être la cible.

En réalité, chacun détient ses protocoles de stockage des données, dont le S3 d’AWS, standard de fait mais qui ne motive guère ses concurrents directs… En outre, très souvent, une partie des métadonnées sont modifiées.

Bref, on est encore loin de pouvoir configurer un PRA (plan de reprise d’activité) en multicloud !

Le rêve du « Cloud brokering »

Le multicloud est censé ouvrir la voie aux services de « Cloud brokering ».

« Nous n’y sommes pas encore, observait Sébastien Verger, directeur technique chez Dell/EMC France, lors d’une table ronde. « Cela reste un vœu pieu. Les équipes IT reprennent la main sur les applications, c’est déjà un préalable ». Il faut d’abord roder le fonctionnement du portail de services.

« Les projets de portail ont tout juste commencé », confirme Jean-Claude Bellando, directeur Prodduit MFT chez Axway. « La DSI entrevoit ce qu’il sera possible de  faire pour distribuer ses workloads à plusieurs fournisseurs de cloud en fonction des usages. Il faut commencer par un cloud privé doté d’un portail d’approvisionnement automatique. On peut alors installer une connexion vers des services externes ».

En clair, pas infaisable mais encore compliqué aujourd’hui!

Recent Posts

Pour son premier LLM codeur ouvert, Mistral AI choisit une architecture alternative

Pour développer une version 7B de son modèle Codestral, Mistral AI n'a pas utilisé de…

20 heures ago

Microsoft x Inflection AI : l’autorité de la concurrence britannique lance son enquête

L’Autorité de la concurrence et des marchés (CMA) britannique ouvre une enquête sur les conditions…

22 heures ago

Thomas Gourand, nouveau Directeur Général de Snowflake en France

Thomas Gourand est nommé Directeur Général pour la France. Il est chargé du développement de…

1 jour ago

Accord Microsoft-CISPE : comment Google a tenté la dissuasion

Pour dissuader le CISPE d'un accord avec Microsoft, Google aurait mis près de 500 M€…

1 jour ago

Vers des mises à jour cumulatives intermédiaires pour Windows

Pour réduire la taille des mises à jour de Windows, Microsoft va mettre en place…

1 jour ago

RH, finances, stratégie… Les complexités de la Dinum

De l'organisation administrative à la construction budgétaire, la Cour des comptes pointe le fonctionnement complexe…

2 jours ago