ChatGPT et recherche en ligne : ça va coûter cher à Google et Microsoft
Les IA génératives « à la ChatGPT » gagnent l'univers des moteurs de recherche et vont impacter leur modèle économique. Pour Google et Bing (Microsoft), la note s'annonce très salée.
La nouvelle est tombée la semaine dernière : les prix de l'API Bing Search vont flamber. À partir du 1er mai 2023, il en coûtera jusqu'à cinq fois plus cher sur certains niveaux de service. Et même dix fois plus pour l'add-on donnant accès aux statistiques d'usage.
Microsoft impute cette hausse à l'évolution des capacités de l'API. Il mentionne notamment la recherche dite « visuelle » (à partir d'images) et la détection d'entités. Mais aussi les « fonctionnalités IA ».
Parmi ces dernières, il y a ChatGPT - ou plus précisément un « proche » de ChatGPT. Une technologie qui a un poids économique. D'après Sam Altman, principal dirigeant d'OpenAI, l'introduction de tels modèles génératifs dans les moteurs de recherche peut coûter plusieurs cents par conversation.
Même son de cloche chez l'informaticien John L. Hennessy, président du conseil d'administration de Google. Il estime qu'une recherche fondée sur un échange avec un grand modèle de langage « coûte probablement dix fois plus cher » qu'une requête traditionnelle par mot-clé.
ChatGPT, l'IA qui va coûter cher à Google et Bing
Du côté de Morgan Stanley, on évalue à 600 M$ le surcoût annuel potentiel pour Google dans le cas où l'IA générative interviendrait sur 10 % des recherches, avec une longueur moyenne de 25 mots. Et jusqu'à 12 Md$ pour 50 % / 100 mots.
Lors de la présentation de ses résultats 2022, Microsoft a voulu rassurer. Pour lui, les coûts de l'IA générative seront compensés par la croissance du nombre d'utilisateurs et des revenus publicitaires.
Le déploiement se poursuit en tout cas au sein de son écosystème applicatif. Le chatbot est désormais disponible sur les applications mobiles Bing et Edge. Il l'est aussi sur Skype, où on peut l'ajouter à des discussions de groupe.
L'usage reste encadré, bien que les limites soient progressivement élargies. Au dernier pointage, une session ne peut s'étendre sur plus de six tours de parole (il faut ensuite changer de discussion). Officiellement, il s'agit de minimiser le risque que le chatbot dérive.
Photo d'illustration © Who is Danny - Adobe Stock
Sur le même thème
Voir tous les articles Data & IA