Pour gérer vos consentements :
Categories: Régulations

Intel et consommation : déception sur le 90nm, espoirs sur le 65nm

Lorsque qu’un fondeur produit des processeurs sous des technologies plus miniaturisées, on en attend d’abord des gains de puissance par la réduction des délais de traitement et l’augmentation du nombre de transistors, mais aussi une réduction sensible de la consommation.

Pourtant, si en passant du 130nm au 90nm Intel répond en partie aux attentes de puissance, la baisse de consommation en énergie n’est pas là, bien au contraire, avec ses contraintes, en particulier sur la dissipation de la chaleur. Que s’est-il donc passé ? Pourquoi un Pentium 4 en 90nm consomme-t-il plus d’énergie qu’un Pentium 4 en 130nm ? La problématique est simple : la compacité des transistors augmente leur nombre sur une même surface de silicium, mais, en contre partie, elle augmente les déperditions d’énergie. Ce phénomène implique donc pour les fabricants de composants d’augmenter la puissance, donc l’alimentation, afin que chaque transistor puisse fonctionner normalement. La solution est technologique et sera implémentée par Intel sur ses futurs produits en 65nm, qui vont « couper les déperditions par quatre à performance équivalente comparée aux transistors en 90nm« . En fait, la technologie 65nm d’Intel profitera de la seconde génération de ‘strained silicon‘, qui contrairement à la première présente sur les 90nm, permettra des gains de performances des transistors de l’ordre de 10 à 15%, sans perte d’énergie. Le processus utilise aussi un isolant diélectrique ‘low K‘, qui limite lui aussi les pertes, avec un processus d’inter-connexion en cuivre organisé en huit couches. A cela, Intel devrait ajouter une technique de réduction des flux sur les banques de transistors non utilisées afin de réduire encore la consommation. Une technique certes intéressante sur les mémoires, mais qui risque d’être plus difficile à maîtriser sur les processeurs ! Les premiers produits en 65nm sont annoncés chez Intel pour le courant de l’année 2005, et plus sûrement livrés chez les utilisateurs pour la fin 2005, voire le début de l’année suivante.

Recent Posts

Windows et Azure sont tombés : Crowdstrike à la source d’une panne informatique mondiale

Une mise à jour de l'EDR Crowdstrike Falcon a planté une multitude de serveurs et…

5 heures ago

Les choix d’OpenAI pour GPT-4o mini

Un modèle GPT-4o mini rejoint le catalogue d'OpenAI. De la conception à l'évaluation, il a…

11 heures ago

Le Réseau interministériel de l’État, sujet à dépendance

La Cour des comptes appelle à formaliser et à professionnaliser certains aspects du RIE, tout…

1 jour ago

Etalab en position de faiblesse au sein de la Dinum

La Cour des comptes attire l'attention sur le risque d'affaiblissement d'Etalab, privé, ces dernières années,…

1 jour ago

Une Dinum « balbutiante » sur l’open data et les logiciels libres

Missions historiques de la Dinum, l'ouverture des données publiques et la promotion des logiciels libres…

1 jour ago

Pour son premier LLM codeur ouvert, Mistral AI choisit une architecture alternative

Pour développer une version 7B de son modèle Codestral, Mistral AI n'a pas utilisé de…

2 jours ago