Sommet de l'IA : 35 sites "clés en main" pour les datacenters
Le Sommet de l'IA donnera lieu à l'annonce de 35 sites "prêts à accueillir des datacenters". Une planification que l'industrie avait appelée de ses voeux.

Comment va s'incarner la "planification" que les fournisseurs de datacenters appellent de leurs voeux ?
Le Sommet pour l'action sur l'IA devrait apporter des réponses. L'État prévoit effectivement d'y présenter une carte de 35 sites "prêts à l'emploi". D'une surface de 18 à "plus de 150" hectares, ils pourront accueillir des projets jusqu'à 1 GW.
Le Gouvernement promet un raccordement au réseau électrique "pour une capacité élevée" à partir de 2027. Il évoque, entre autres investissements prévus, ceux d'Equinix et de Telehouse. Le premier compte consacrer "plus de 630 M€" dans ses installations en France au cours de 5 prochaines années. Le second entend débloquer 1 Md€ afin, notamment, de construire et d'opérer "3 nouveaux datacenters écoresponsables en régions Sud et Île-de-France.
Lire aussi : Au Sommet de l'IA, chacun cherche son chat
La perspective d'un Ashburn ou d'un Slough français
Lors du dernier salon Data Centre World Paris, Régis Castagné, DG d'Equinix pour la France, avait évoqué la "mégapole de datacenters" qu'est Ashburn, près de Washington. "Plus près de nous, à Londres, ça s'appelle Slough, avait-il ajouté. On a un travail de planification à faire pour créer ce type de zone et pour que la France puisse prendre la place qui lui revient dans cette course mondiale."
Alexandre Delaval, DG de Data4 en France, lui avait fait écho : "L'Île-de-France ne pourra pas à elle seule absorber tous les projets de datacenters. Il faut qu'on ait une notion de planification pour se rapprocher des zones d'électricité."
Fabrice Coquio, président en France de Digital Realty (ex-Interxion), n'en disait pas moins : "La croissance de la création de données, c'est 140 % par an, déclarait-il sur la foi d'une étude interne. En France, les deux hubs de Paris et Marseille ne vont pas pouvoir [l'absorber]." L'intéressé avait toutefois annoncé la couleur : "On a réussi, avec la profession, à faire travailler un peu l'État à Marseille pour désigner des zones d'implantation future de datacenters où on rassemble le foncier, l'électricité, les réseaux de chaleur, les réseaux télécoms, etc."
"Il faut le dire : on a complètement échoué en région parisienne, avait admis Fabrice Coquio. Du coup, on va changer de paradigme. Pendant 25 ans, l'électricité est venue aux datacenters. Maintenant, les datacenters vont aller à l'électricité." Et de poursuivre : "On le sait, la région parisienne n'a pas d'électricité : elle n'en produit pas et les réseaux de distribution sont quasiment saturés, en tout cas par rapport aux besoins [anticipés]. Le véritable enjeu pour la profession, c'est 'où va-t-on ?' Au nord ? À l'est ? Au sud ? Je ne pense pas que ce soit à l'ouest, pour des problématiques d'absence de grosses concentrations de réseaux télécoms. Mais on ne pourra pas y aller chacun dans notre coin, sinon on va recréer des trous de mites."
Sami Slim, DG de Telehouse France, avait confirmé : "C'est effectivement de la planification urbaine, qui va résoudre plusieurs problèmes. Dont celui de la chaleur fatale : plus [nombreux] on est dans une zone géographique, plus le problème est distribué entre acteurs, donc son coût sera moindre et il sera plus facile à mettre en oeuvre." "Le fait de concentrer l'acceptabilité sur des zones géographiques, comme avec les aéroports et les gares, résout énormément de débats", avait-il ajouté.
Des autorisations aux contentieux, vers un assouplissement des règles pour les datacenters
Au-delà des 35 sites "clés en main", l'État met en avant la facilitation des procédures pour les projets de datacenters. Par exemple à travers la loi du 23 octobre 2023 sur l'industrie verte. D'une part, elle réduit de 9 à 6 mois la procédure d'autorisation. De l'autre, elle crée le statut de PINM (projet d'intérêt national majeur). Ce dernier permet "d'accélérer l'adaptation des règles d'urbanisme local, de sécuriser les dérogations à la protection des espèces et de garantir un raccordement rapide au réseau électrique." Il ne couvre pas encore les grands projets de datacenters, mais il est question de les englober par l'intermédiaire d'une proposition de loi sur la "simplification de la vie des entreprises".
L'État mentionne deux autres leviers. D'un côté, la révision du champ de la CNDP (Commission nationale du débat public) pour en exclure les datacenters. De l'autre, la simplification des procédures contentieuses contre les datacenters. En l'occurrence, par la suppression du double degré de juridiction. Gain attendu : 9 à 18 mois.
"Si on leur vend les gigawatts..." : l'électricité, autre sujet de souveraineté
Passé l'argument des réseaux télécoms (les deux tiers des câbles sous-marins raccordant l'Europe arrivent en France, le territoire est couvert à 90 % par la fibre, etc.), il y a celui de l'énergie. En la matière, la France avance :
- Une capacité de production
Plus de 150 GW de capacités installées et des sites industriels parmi les plus puissants d'Europe (1,8 GW au barrage de Grand-Maison, 1,6GW à l'EPR de Flamanville...). La production devrait continuer à croître de 2 % par an. En 2024, la France a affiché un solde net d'exportation de 89 TWh. - Une électricité décarbonée "à 95 %"
En 2024, elle a émis, en moyenne, 21,3 g d'équivalent CO2 par KWh. Tandis que la moyenne de l'UE est de 292 g (données 2023). - Les prix de l'énergie
EDF "vise un prix moyen de vente de l'électricité nucléaire existante d'environ 70 €/MWh [hors taxes et frais de réseau] sur les 15 prochaines années". Il donne la possibilité de sécuriser un approvisionnement sur le marché à moyen terme (4-5 ans). Tout en donnant accès - pour les "projets éligibles"... - à des contrats de partenariat à long terme (10-15 ans). - Des incitations financières pour les utilisateurs "électro-intensifs"
D'une part, une réduction fiscale de 10,50€/MWh (sous conditions, notamment de performance environnementale). De l'autre, une remise de 5,70 €/MWh sur le TURPE (tarif d'utilisation des réseaux publics d'électricité) pour les profils de consommation "prévisibles ou stables ou anticycliques".
"Aujourd'hui, RTE et Enedis distribuent assez facilement des tickets", avait fait remarquer Damien Desanti lors de Data Centre World. "Cela met sur la table la question de la souveraineté, avait clamé le président-fondateur de Phocea DC. Les capitaux arrivent massivement de l'étranger. Si, à terme, on [leur] vend les gigawatts, que restera-t-il à nos collectivités ? Elles sont intéressées pour avoir leurs propres solutions dans leurs propres villes. Marseille [où se trouve Phocea DC, NDLR] est un laboratoire pour cela. À Lille, Bordeaux, Nantes, c'est aussi très dynamique. La capacité est moindre, mais il va falloir assurer ce maillage territorial."
La chaleur fatale, vue comme un vecteur d'acceptabilité des datacenters
"Je ne suis pas trop inquiet sur le financement des datacenters, avait confirmé Régis Castagné. On est en train de revenir une classe d'actifs à part entière. Le changement est surtout au niveau de la responsabilité que nous avons de dégager ce que j'appelle des externalités positives. Aujourd'hui, on capte à peu près 2 % de la consommation mondiale d'électricité (à peu près autant que le trafic aérien). Les prévisions nous amènent à 6 voire 10 %. [Dans ce contexte], le datacenter doit redonner à la collectivité ce qu'il va consommer". Et de rappeler qu'Equinix est une société à mission, en ce qu'elle a inscrit dans ses statuts ses objectifs extra-financiers. "On a mis en place des PPA [power purchase agreements] : on est en train de créer 7 fermes éoliennes pour 100 MW d'énergie qui va aller verdir le réseau français. On chauffe la piscine olympique et 1600 logements autour en récupérant la chaleur fatale du datacenter." Ce dernier pourrait, à moyen terme, être alimenté par un SMR [petit réacteur nucléaire modulaire) dont bénéficierait aussi toute une zone alentour, ajoute Régis Castagné.
"Pour l'utilisation de la chaleur fatale, on n'en est qu'au début, avait reconnu Damien Desanti. Des start-up commencent à faire des choses sympas à des niveaux de température assez bas." Alexandre Delaval avait mentionné, à ce sujet, les travaux de Data4 avec l'université Paris-Saclay sur l'utilisation de la chaleur pour produire des algues.
"Le datacenter, qui était plutôt un bunker il y a une quinzaine d'années, est aujourd'hui une place de marché qui anime une économie digitale dans l'écosystème où il est implanté, avait constaté Anouar Saliba, DG de nLighten France (ex-Euclyde Datacenters). De plus en plus, il n'est pas perçu que comme un consommateur, mais aussi comme un producteur exportateur." L'intéressé avait évoqué le cas de ses datacenters de proximité (1 à 4 MW). "Il est plus facile de les coupler à une source d'énergie proche et propre. Et de recycler la chaleur fatale. Une fois qu'on l'a réutilisée en interne pour refroidir les zones tertiaires et les groupes électrogènes, un peu de maraîchers à côté et ça peut compenser la totalité."
"Le retrofit, ça nous anime tous" : avec l'IA, penser différemment le datacenter, y compris l'existant
Pour Sami Slim, la diffusion de l'IA est synonyme de "nouvelle phase où il va falloir construire différemment" : plus grande densité, eau qui se rapproche des équipements des clients, manière d'architecturer les hubs centraux et les zones d'entraînement de modèles... Il faut aussi "regarder les actifs existants et les préparer", glisse-t-il.
Alexandre Delavel confirme : "Le retrofit, ça nous anime tous, pour pouvoir aller chercher davantage de puissance au m² et une meilleur efficacité énergétique". En 2030, 30 à 40 % des datacenters en France seront dédiés à l'IA, souligne-t-il. Dans un contexte où le prix de l'électricité devient un "élement de plus en plus important", "on voit des clients de différentes nationalités qui cherchent à être moins contraints dans leur propre pays et à passer les frontières, parce que la latence n'est plus forcément un problème."
"À partir du moment où le marché se segmente en des objets de datacenters de tailles complètement différentes, un modèle qui n'avait pas forcément beaucoup évolué (business models récurrents, amortissements à 30-40 ans, contrats clients à long terme...) bascule complètement, analysait Fabrice Coquio. On va vers des systèmes beaucoup plus basés sur l'usage. Et vers des évolutions dans la façon de financer des actifs : il n'est absolument pas sûr que [ceux] qui sont même encore en cours de construction et qui sortiront |vers] 2028-2030 auront des espérances de vie de 30-40 ans."
Illustration générée par IA
Sur le même thème
Voir tous les articles Data & IA