Recherche

JetBrains AI est lancé : ce qu'il faut savoir

JetBrains intègre à son tour des fonctionnalités d'assistance fondées sur des LLM. Voici quelques éléments à leur sujet.

Publié par Clément Bohic le | Mis à jour le
Lecture
4 min
  • Imprimer
JetBrains AI est lancé : ce qu'il faut savoir

Obtenir une assistance IA à base de LLM dans  les produits JetBrains ? Pour cela, il fallait jusqu'alors s'appuyer sur des solutions externes comme CodeWhisperer ou GitHub Copilot. Il existe désormais un service maison. Voici quelques éléments à son sujet.

JetBrains AI, comment ça marche ?

Les particuliers et les organisations disposant de licences commerciales peuvent souscrire additionnellement au « service JetBrains AI ».

Celui-ci donne accès à l'« AI Assistant JetBrains ». C'est-à-dire à une gamme de fonctionnalités d'assistance par IA dans les produits individuels de l'éditeur. Plus précisément :

- Ses IDE commerciaux
- Son extension ReSharper pour Visual Studio
- Son IDE multilingue Fleet, actuellement en préversion publique

Une fois un abonnement acheté, il est actif sur tous les produits JetBrains proposant un service d'IA.

On nous promet, dans les grandes lignes :

- Interface de chat
- Saisie semi-automatique
- Rédaction de documentation et de messages de commit
- Génération de code à partir d'une description
- Explication du code (y compris pour les expressions régulières, SQL et cron)
- Explication des erreurs et suggestion de correctifs
- Suggestion de refactorisations
- Proposition de noms pour les classes, fonctions et variables
- Bibliothèque de prompts personnalisés
- Conversion entre langages

JetBrains prévoit une intégration dans ses outils collaboratifs (YouTrack pour la gestion de projet, TeamCity pour le CI/CD, Datalore pour la data science).

Combien ça coûte ?

Les fonctionnalités listées ci-dessus entrent dans le cadre de l'offre Pro. Son prix : 12 € TTC par mois pour chaque utilisateur particulier (ou 10 € par mois avec paiement annuel).

Pour les organisations, il faut compter deux fois plus par utilisateur.

JetBrains prévoit, pour 2024, une édition Enterprise. Elle apportera, entre autres, une option d'installation sur site et la possibilité de personnaliser des modèles sur des bases de code.

Quels LLM JetBrains AI utilise-t-il ?

L'essentiel des fonctionnalités s'appuient pour le moment sur des modèles OpenAI. JetBrains affirme préparer ses propres modèles pour la saisie semi-automatique. Il est aussi question de se connecter à Codey et Vertex AI de Google.

Dans le scénario sur site, les modèles fournis dépendront de la plate-forme cloud : ceux d'Anthropic pour AWS, PaLM 2 pour Google Cloud ou Azure OpenAI. Le bring-your-own-model est sur la roadmap.

En attendant cette offre, utiliser JetBrains AI implique de transmettre des données aux LLM sous-jacents : les prompts, bien sûr, mais aussi des fragments de code, des types de fichiers, les frameworks utilisés, etc. JetBrains se réserve le droit de collecter plus de détails afin d'améliorer ses services, mais c'est à l'utilisateur de donner son accord.

Quelles spécificités pour les organisations ?

Quiconque utilise sa licence d'IDE à partir du serveur de licences flottantes de son entreprise devra créer un compte pour utiliser JetBrains AI.
De même, on ne peut pas, en l'état, distribuer de licences JetBrains AI par ce canal.

Une fois activé par un admin, le service peut prendre jusqu'à une heure pour être accessible par les développeurs. Ces derniers peuvent accélérer le processus en réacquérant manuellement leurs licences IDE.

Que ce soit pour les particuliers ou les organisations, il n'y a pas de SLA. Pour maintenir un niveau optimal de performance, JetBrains s'autorise effectivement à « ajuster les accès en fonction de l'usage »...

Pour bloquer les fonctionnalités à l'échelle d'un projet, il faut créer, à la racine du repo, un fichier nommé .noai.

À consulter en complément :

CodeWhisperer reconverti en expert MongoDB
Copilot, mais pas que : comment GitHub se nourrit des LLM
JetBrains passe de l'open source au commercial pour Rust
Microsoft met fin à Visual Studio pour Mac
Code LLaMa : un modèle spécial Python au menu de Meta

Illustration © sharafmaksumov - Adobe Stock

Sur le même thème

Voir tous les articles Data & IA

Livres Blancs #cloud

Voir tous les livres blancs
S'abonner
au magazine
Se connecter
Retour haut de page