Pour gérer vos consentements :

Puces Ascend 310 et 910 : Huawei veut peser dans l’IA

Conférence Huawei Connect de Shanghai : Huawei dévoile deux nouvelles puces IA (Intelligence artificielle) répondant aux noms d’Ascend 910 et Ascend 310. Elles reposent toutes deux sur l’architecture Da Vinci.

L’ascend 910 pour les data centers

La puce Ascend 910 se destine aux data centers. En effet, les sociétés qui ont recours à des applications IA exploitent d’énormes quantités de données pour former leur agent IA. Selon la firme chinoise, sa puce est capable de traiter plus de données en moins de temps que les puces IA concurrentes et permet ainsi de former des réseaux neuronaux en l’espace de quelques minutes.

Selon Huawei, l’Ascend 910 offre «la plus grande densité informatique sur une seule puce».

L’ascend 310 pour l’IoT

L’Ascend 310 est, lui, destiné aux appareils connectés à Internet tels que les smartphones, les smartwatches et autres gadgets entrant dans la sphère de l’Internet des objets (IoT).

La puce 310 est disponible dès maintenant, tandis que la 910 sortira au deuxième trimestre de l’année prochaine.

L’IA : un pilier de la stratégie de Huawei

Huawei s’était déjà fendu de la plate-forme de services d’intelligence artificielle Huawei Cloud EI l’an passé pour les entreprises et les gouvernements, et de HiAI, un moteur d’intelligence artificielle pour appareils intelligents dévoilé en avril dernier.

Par ailleurs, fin août dernier, le groupe avait dévoilé le SoC (System on Chip) Kirin 980 (embarqué dans les smartphones Magic 2 et Mate 20) capable de doubler la puissance de traitement des applications d’intelligence artificielle. Gravée en 7 nm (nanomètres), la puce compte 6,9 milliards de transistors, soit 1,6 fois plus que la puce Kirin 970 lancée en 2017.

Puissance brute avec le CPU Ascend-Max

A l’occasion de sa conférence, Huawei a aussi présenté son processeur Ascend-Max. Basé sur le noyau Da Vinci, il est gravé en 7 nanomètres et se caractérise par une enveloppe thermique de 350 watts.

Ascend-Max peut atteindre les 256 TeraFLOPS, ou 256 trillions d’opérations en virgule flottante par seconde, avec des nombres à virgule flottante semi-précis (16 bits). Avec des nombres entiers de 8 bits, il peut réaliser 512 trillions d’opérations par seconde.

(crédit photo © ktsdesign – shutterstock)

Recent Posts

IA générative : l’Autorité de la concurrence pointe de sérieux risques

Dans un avis consultatif, l'Autorité de la concurrence a identifié les risques concurrentiels liés à…

2 jours ago

OpenAI signe un accord de contenu avec Time

OpenAI signe un « partenariat de contenu stratégique » avec Time pour accéder au contenu…

2 jours ago

Atos : David Layani (Onepoint) veut sortir du capital

Au lendemain du rejet de sa proposition de restructuration, David Layani annonce sa démission du…

2 jours ago

Évaluer les LLM, un défi : le cas Hugging Face

Après un an, Hugging Face a revu les fondements de son leaderboard LLM. Quels en…

3 jours ago

Mozilla face au dilemme de la GenAI dans Firefox

Mozilla commence à expérimenter divers LLM dans Firefox, en parallèle d'autres initiatives axées sur l'intégration…

4 jours ago

VMware tente d’orienter vers VCF les déploiements pré-Broadcom

VMware met VCF à jour pour y favoriser la migration des déploiements qui, sur le…

4 jours ago