Pour gérer vos consentements :
Categories: ChatGPT

ChatGPT et recherche en ligne : ça va coûter cher à Google et Microsoft

La nouvelle est tombée la semaine dernière : les prix de l’API Bing Search vont flamber. À partir du 1er mai 2023, il en coûtera jusqu’à cinq fois plus cher sur certains niveaux de service. Et même dix fois plus pour l’add-on donnant accès aux statistiques d’usage.

Microsoft impute cette hausse à l’évolution des capacités de l’API. Il mentionne notamment la recherche dite « visuelle » (à partir d’images) et la détection d’entités. Mais aussi les « fonctionnalités IA ».

Parmi ces dernières, il y a ChatGPT – ou plus précisément un « proche » de ChatGPT. Une technologie qui a un poids économique. D’après Sam Altman, principal dirigeant d’OpenAI, l’introduction de tels modèles génératifs dans les moteurs de recherche peut coûter plusieurs cents par conversation.

Même son de cloche chez l’informaticien John L. Hennessy, président du conseil d’administration de Google. Il estime qu’une recherche fondée sur un échange avec un grand modèle de langage « coûte probablement dix fois plus cher » qu’une requête traditionnelle par mot-clé.

ChatGPT, l’IA qui va coûter cher à Google et Bing

Du côté de Morgan Stanley, on évalue à 600 M$ le surcoût annuel potentiel pour Google dans le cas où l’IA générative interviendrait sur 10 % des recherches, avec une longueur moyenne de 25 mots. Et jusqu’à 12 Md$ pour 50 % / 100 mots.

Lors de la présentation de ses résultats 2022, Microsoft a voulu rassurer. Pour lui, les coûts de l’IA générative seront compensés par la croissance du nombre d’utilisateurs et des revenus publicitaires.

Le déploiement se poursuit en tout cas au sein de son écosystème applicatif. Le chatbot est désormais disponible sur les applications mobiles Bing et Edge. Il l’est aussi sur Skype, où on peut l’ajouter à des discussions de groupe.

L’usage reste encadré, bien que les limites soient progressivement élargies. Au dernier pointage, une session ne peut s’étendre sur plus de six tours de parole (il faut ensuite changer de discussion). Officiellement, il s’agit de minimiser le risque que le chatbot dérive.

Photo d’illustration © Who is Danny – Adobe Stock

Recent Posts

IA générative : l’Autorité de la concurrence pointe de sérieux risques

Dans un avis consultatif, l'Autorité de la concurrence a identifié les risques concurrentiels liés à…

2 jours ago

OpenAI signe un accord de contenu avec Time

OpenAI signe un « partenariat de contenu stratégique » avec Time pour accéder au contenu…

2 jours ago

Atos : David Layani (Onepoint) veut sortir du capital

Au lendemain du rejet de sa proposition de restructuration, David Layani annonce sa démission du…

2 jours ago

Évaluer les LLM, un défi : le cas Hugging Face

Après un an, Hugging Face a revu les fondements de son leaderboard LLM. Quels en…

3 jours ago

Mozilla face au dilemme de la GenAI dans Firefox

Mozilla commence à expérimenter divers LLM dans Firefox, en parallèle d'autres initiatives axées sur l'intégration…

3 jours ago

VMware tente d’orienter vers VCF les déploiements pré-Broadcom

VMware met VCF à jour pour y favoriser la migration des déploiements qui, sur le…

4 jours ago