Recherche

AWS re:Invent 2024 : les mille et un usages internes de l'IA, parfois générative

De la conversion de schémas de bases de données à la détection de séquences d'attaques, l'automatisation à renfort d'IA se diffuse dans le cloud AWS.

Publié par le - mis à jour à
Lecture
2 min
  • Imprimer
AWS re:Invent 2024 : les mille et un usages internes de l'IA, parfois générative
© Frenchiebuddha – Adobe Stock

L'IA générative, pour quoi faire ? Par exemple, migrer des bases de données, détecter des séquences d'attaques... ou évaluer des LLM.

Les principales annonces de l'AWS re:Invent 2024 couvrent ces trois scénarios.

Sur l'aspect migration des bases de données, AWS exploite des LLM hébergés sur son service Bedrock pour aider à la conversion de schémas. Une fonctionnalité pour le moment en preview et disponible dans une seule des zones AWS en Europe (Francfort). Elle détecte les fragments de code susceptibles de ne pas être convertis correctement avec les techniques classiques à base de règles, puis génère un rapport avec des recommandations qu'elle peut ensuite éventuellement exécuter. Deux sources sont actuellement prises en charge (Oracle et SQL Server), pour une seule destination : Aurora PostgreSQL. L'usage n'entraîne pas de surcoût.

Pour ce qui est d'évaluer des LLM grâce à d'autres LLM, ça se passe sur Bedrock. Là aussi en preview, dans cinq des zones AWS en Europe (y compris Paris). Le service est facturé fonction des coûts d'inférence des modèles sous-jacents.

La détection des séquences d'attaques ne repose pas tant sur du génératif que sur du machine learning "traditionnel". Elle s'applique au service GuardDuty, où lesdites séquences s'affichent dans une section spécifique. Avec un résumé en langage naturel et un mapping MITRE ATT&CK.

Un essai à durée indéterminée pour PartyRock

La re:Invent a donné lieu à quelques autres annonces au sujet de Bedrock. Certaines concernent le playground PartyRock. La période d'essai à durée déterminée est remplacée par un niveau d'usage gratuit sans limite de temps mais avec un quota d'usage quotidien. AWS ajoute, en parallèle, la prise en charge du téléversement de plusieurs documents.

Sur la composante RAG (Bedrock Knowledge Bases), l'API supporte désormais les connecteurs personnalisés et l'ingestion de données en flux, ainsi que l'usage de modèles de reranking (pour le moment, Amazon Rerank 1.0 et Cohere Rerank 3.5).

On aura aussi noté le lancement d'extensions Amazon Q Business pour les navigateurs Chromium, ainsi que Firefox, Slack et Teams.

Illustration principale © Frenchiebuddha - Adobe Stock

Sur le même thème

Voir tous les articles Cloud

Livres Blancs #bigdata

Voir tous les livres blancs
S'abonner
au magazine
Se connecter
Retour haut de page