Pour gérer vos consentements :

IA générative : AWS dévoile Amazon Bedrock

Publié par Ariane Beky le - mis à jour à

Amazon Bedrock fournit, via des API, un accès à des modèles pré-entraînés d'apprentissage automatique provenant de start-up. De quoi distinguer AWS ?

Comment se distinguer dans la course à l'IA ? Amazon Web Services (AWS) a dévoilé jeudi 13 avril Amazon Bedrock. Le service permet aux clients en entreprise, ou plutôt à leurs développeurs, de créer et mettre à l'échelle des applications basées sur l'intelligence artificielle générative, a indiqué le fournisseur cloud américain dans un billet de blog.

Disponible en « preview » limitée, Amazon Bedrock fournit, via des API, un accès à des modèles pré-entraînés d'apprentissage automatique (Few-Shot Models ou FM) provenant de start-up telles que AI21 Labs, Anthropic et Stability AI. L'accès au modèle Titan, une famille de modèles formés en interne par AWS, est aussi proposé.

« Nous travaillons sur nos propres grands modèles de langage (LLM) depuis un certain temps maintenant. Nous sommes convaincus que cela aura un impact considérable sur l'expérience client et nous continuerons à investir fortement dans ces modèles pour toutes les expériences impliquant des clients, des vendeurs, des marques et des créateurs », a déclaré le CEO d'Amazon, Andy Jassy, dans une lettre aux actionnaires publiée jeudi.

AWS couple LLM personnalisés et instance Trn1

Amazon promeut également ses propres puces d'IA, AWS Trainium et Inferentia, pour entraîner et exécuter ces modèles sur son cloud. Aussi, un nouveau type d'instance EC2, Trn1, alimentée par Trainium, permettrait d'économiser « jusqu'à 50% » sur les coûts de formation de modèles d'IA par rapport à n'importe quelle autre instance EC2, selon l'hyperscaler.

L'annonce fait suite au partenariat renforcé en début d'année entre AWS et Hugging Face. Par ailleurs, AWS a également confirmé le mois dernier un partenariat avec NVIDIA. Les deux groupes disent travailler au développement d'une infrastructure évolutive, en tant que service, optimisée pour la formation de modèles de langage (LLM) complexes. Plus récemment, AWS a lancé son accélérateur de start-up actives dans l'IA générative...

La concurrence n'est pas en reste. Microsoft, qui investit dans OpenAI (ChatGPT, DALL-E), et Google, qui promeut Bard, ont lancé tous deux des outils d'IA générative pour leurs plateformes cloud respectives. Microsoft a déployé Azure OpenAI Service en janvier dernier, Google Cloud a renforcé en mars ses capacités « intelligentes » de niveau professionnel.

(crédit photo © Adobe Stock)

La rédaction vous recommande