Recherche

IA : AWS lance son accélérateur de start-up

AWS lance son accélérateur de start-up actives dans l'intelligence artificielle générative. Au programme : 10 semaines de mentorat et appui technique.

Publié par le - mis à jour à
Lecture
2 min
  • Imprimer
IA : AWS lance son accélérateur de start-up

Amazon Web Services (AWS) a inauguré son accélérateur de start-up actives dans l'intelligence artificielle (IA) générative. Pour le lancement du programme, ce sont 10 jeunes pousses technologiques qui seront sélectionnées d'ici le 17 avril prochain.

Celles-ci auront accès à des modèles d'IA, aux bonnes pratiques de mise sur le marché et d'optimisation de la pile logicielle d'apprentissage automatique (machine learning ou ML).

Par ailleurs, les lauréats disposeront d'une enveloppe de crédits AWS (jusqu'à 300 000 $). Et ce pour concevoir des produits et services basés sur l'offre du fournisseur cloud américain.

AWS avec Hugging Face et d'autres

Les start-up sélectionnées bénéficieront de 10 semaines durant de l'appui technique des équipes AWS et d'un mentorat en IA/ML de spécialistes.

La première édition du programme d'accélération sera ouverte du 24 mai au 27 juillet 2023.

« Pour en bénéficier pleinement, les jeunes pousses doivent disposer d'un produit viable minimal (MVP) déjà développé, valider une certaine traction auprès des clients et travailler à améliorer leur proposition de valeur produit pour évoluer », a indiqué dans un billet de blog AWS.

L'hyperscaler affûte son positionnement.

En début d'année, le fournisseur cloud a emboîté le pas à Google et Microsoft en confortantson accord avec Hugging Face et sa plateforme de partage de modèles d'IA génératives. L'hyperscaler américain rappelait alors les manières d'exploiter les modèles Hugging Face sur son infrastructure cloud.

AWS a également confirmé le mois dernier un partenariat avec NVIDIA. Les deux groupes disent travailler au développement d'une infrastructure évolutive, en tant que service, optimisée pour la formation de modèles de langage (Large Language Model) complexes et la création d'applications « intelligentes » de nouvelle génération.

Hugging Face est impliqué. « Grâce aux progrès significatifs dans les grands modèles de langage et l'IA générative, nous travaillons avec AWS pour créer et contribuer aux modèles open source de demain », a expliqué Julien Chaumond, CTO et co-fondateur de Hugging Face. « Nous allons utiliser les instances Amazon EC2 P5 déployées à grande échelle, via Amazon SageMaker, dans des UltraClusters avec interface EFA afin d'accélérer la fourniture de nouveaux modèles d'IA fondamenaux de base pour tous. »

Livres Blancs

Voir tous les livres blancs
S'abonner
au magazine
Se connecter
Retour haut de page