Recherche

IA génératives : qui a l'UI la mieux écoconçue ?

L'agence Razorfish et le collectif Green IT ont attribué un score de performance environnementale aux interfaces utilisateur de 12 IA génératives.

Publié par Clément Bohic le - mis à jour à
Lecture
3 min
  • Imprimer
IA génératives : qui a l'UI la mieux écoconçue ?
© généré par IA

Comment évaluer l'empreinte environnementale d'une IA générative ? On peut commencer par la partie émergée de l'iceberg : l'interface utilisateur.

L'agence Razorfish (groupe Publicis) et le collectif Green IT s'y sont essayés. Ils ont analysé 6 services axés sur la production de texte (ChatGPT, Claude, Copilot, Gemini, Mistral AI, Perplexity) et 6 destinés à la création d'images (Civitai, DALL-E, Firefly, Pixlr, Leonardo AI, Midjourney).

IA textuelles : Mistral AI en tête de bout en bout

Le protocole de test des IA textuelles a consisté en une série de 5 prompts. Dans les grandes lignes :

  • Fournir une liste de 10 villes à visiter (requête de type liste)
  • Sélectionner une de ces villes (requête de type simplification)
  • Donner le prix d'un aller-retour entre Paris et cette ville (requête de type comparateur)
  • Élaborer un programme touristique d'une semaine (requête de type tableau)
  • Mettre ce tableau dans un format importable sur Notion (requête de type code)

Le score Ecoindex* moyen au lancement de l'interface est de 55/100. Mistral AI s'en sort le mieux (69), devant ChatGPT (63), Gemini et Perplexity (55 chacun), Claude (50) et Copilot (40).

Après les 5 prompts, le score moyen a diminué de moitié (27/100). Mistral AI (45) reste le plus performant, devant ChatGPT (38) et Claude (30).

Ces trois IA, telles qu'expérimentées, ont fonctionné tels des assistants : elles ont répondu aux questions. Copilot, Gemini et Perplexity se sont plutôt apparentés, dans les résultats qu'ils ont livré, à des moteurs de recherche.

La différence entre ces deux catégories s'illustre dans l'écart entre Mistral AI et Gemini après la requête initiale. Le premier obtient un score de 61. Son interface pèse alors 3 Mo. Le second a un score de 32, avec une interface pesant 10 Mo, essentiellement parce que des images y ont été affichées.
L'écart se creuse après la deuxième requête (58 vs 24). En particulier parce que Gemini fournit des sources, des suggestions de questions liées et de multiples options (recherche des vidéos, générer des images, passer en mode pro, etc.).

Entre le premier et le dernier prompt, Mistral AI perd 23 points (-9, -3, -3, -5, -3). Gemini en perd 35 (-18, -8, -5, -3, -1). "Tout se joue sur le premier prompt", nous résume-t-on. La perte moyenne est effectivement de 13 points, contre 5, 4, 4 et 2 points sur les prompts ultérieurs.

IA créatives : Midjourney, le plus "green" au démarrage

Pour tester les IA génératrices d'images, on leur a soumis 3 prompts, chacun décliné en des versions "simple" et "compliquée".

Au lancement de l'UI, l'Ecoindex moyen s'élève à 40 (contre 55 pour les IA textuelles). Midjourney s'en sort le mieux (64), devant Pixlr (45), DALL-E (41), Leonardo AI et Adobe Firefly (31 chacun), puis Civitai (25).
Les IA affichant les meilleurs scores ne sont pas forcément celles qui comportent le moins de requêtes HTTP. Elles ont cependant les DOM les moins complexes (les pages comportent moins d'éléments).

Après les 6 prompts, les scores s'échelonnent de 9 à 29, avec une moyenne de 18/100. Contrairement aux IA textuelles, la performance environnementale est directement liée au nombre de prompts, constatent Razorfish et Green IT.

* Trois paramètres techniques sont évalués et pondérés en fonction de leur contribution aux impacts écologiques : poids de la page (x1), nombre de requêtes HTTP (x2) et complexité du DOM (= nombre d'éléments de la page ; x3).

Illustration générée par IA

Sur le même thème

Voir tous les articles Green IT

Livres Blancs #cloud

Voir tous les livres blancs

Vos prochains événements

Voir tous les événements

Voir tous les événements

S'abonner
au magazine
Se connecter
Retour haut de page