Pour gérer vos consentements :

Facebook veut booster l’efficacité de ses serveurs

Lancé en avril 2011, le projet Open Compute de Facebook a pour objectif de créer un design de datacenter éco-efficient.

Cette initiative monte aujourd’hui en puissance avec l’arrivée d’une douzaine de nouveaux partenaires et un travail commun avec Intel sur des serveurs ultradenses et peu gourmands en énergie. Le tandem a également porté ses efforts sur la fiabilité du système, en désolidarisant certaines composantes pour mieux tolérer les éventuelles pannes, signale ITespresso.fr.

Illustration avec un prototype signé Quanta Computer, équipé en processeurs Atom « Avoton » et présenté lors de l’Open Compute Summit. Ces serveurs seront mis à contribution pour stocker les photos des utilisateurs, téléchargées à hauteur de 300 millions par jour.

Un stockage à deux niveaux

Par opposition au simple archivage, il en va d’une logique d’accessibilité, les photos étant omniprésentes sur le réseau social. D’où la nécessité d’offrir une haute qualité de service (QoS). C’est dans cet esprit qu’Intel met en application sa technologie Silicon Photonics, qui assure des interconnexions en entrée/sortie à 100 Gbit/s entre les portes logiques du processeur.

Facebook accompagne également le projet DragonStone, un concept de serveur basse consommation articulé autour d’un seul CPU et pourvu d’une alimentation redondante, destiné à l’archivage de données « froides », peu sollicitées.

Cette technologie a déjà fait l’objet d’une implémentation dans le datacenter suédois du réseau social, avec une efficacité accrue de l’ordre de 40%, selon les équipes de Mark Zuckerberg.

Dans un autre registre, les travaux sur la densité des serveurs sont menés avec Winterfell, qui développe une architecture au moindre encombrement.

Enfin, avec la technologie ioScale de Fusion-IO (des systèmes SSD de 3,2 To), la révolution de la mémoire flash s’accélère, aux dépens des disques durs, avec comme bénéfice principal un allègement de la facture d’électricité.

Facebook participera également à l’élaboration d’un format de carte mère (nom de code « Group Hug ») qui puisse accueillir jusqu’à 10 processeurs, qu’importe leur fabricant. Ce standard d’interopérabilité impliquerait des composants SoC (System-on-a-Chip) échangeables via des cartes PCI Express.

TechCrunch note qu’AMD, Applied Micro, Calxeda et Intel se sont engagés dans la démarche, secondés par des spécialistes du stockage : EMC, Hitachi, Sandisk…

Crédit photo : © Chris Preimesberger – eweek.com


Voir aussi
Quiz Silicon.fr – Incollable sur les grands noms du monde IT ?

Recent Posts

Le Réseau interministériel de l’État, sujet à dépendance

La Cour des comptes appelle à formaliser et à professionnaliser certains aspects du RIE, tout…

12 heures ago

Etalab en position de faiblesse au sein de la Dinum

La Cour des comptes attire l'attention sur le risque d'affaiblissement d'Etalab, privé, ces dernières années,…

14 heures ago

Une Dinum « balbutiante » sur l’open data et les logiciels libres

Missions historiques de la Dinum, l'ouverture des données publiques et la promotion des logiciels libres…

16 heures ago

Pour son premier LLM codeur ouvert, Mistral AI choisit une architecture alternative

Pour développer une version 7B de son modèle Codestral, Mistral AI n'a pas utilisé de…

1 jour ago

Microsoft x Inflection AI : l’autorité de la concurrence britannique lance son enquête

L’Autorité de la concurrence et des marchés (CMA) britannique ouvre une enquête sur les conditions…

2 jours ago

Thomas Gourand, nouveau Directeur Général de Snowflake en France

Thomas Gourand est nommé Directeur Général pour la France. Il est chargé du développement de…

2 jours ago