Pour gérer vos consentements :

Machine Learning : langage naturel et traduction sur le Cloud de Google

Petit à petit, l’intelligence artificielle fait son nid dans le cloud de Google. Deux des services de machine learning que le groupe Internet propose sur sa plate-forme passent en bêta publique.

En premier lieu, l’API « Natural Language », qui doit permettre d’analyser la structure et le sens d’un texte, initialement en anglais, en espagnol et en japonais.

Sur le volet syntaxique, il s’agit de détecter les parties du discours, ainsi que des éléments comme le genre et le nombre. Mais aussi les relations entre les mots (sujet – verbe – objet, modificateurs…).

L’aspect sémantique consiste à identifier des unités de sens, à les catégoriser, à déterminer le ton d’un propos et plus globalement à établir des liens avec d’autres faits et entités, le tout aussi bien à l’échelle d’un syntagme que d’un document entier.

Dans la pratique, « Natural Language », facturé en fonction du nombre de requêtes, peut être exploité pour analyser des commentaires en ligne ou des transcriptions d’appels au service client.

Pour illustrer les capacités de son API, Google a effectué une démonstration à l’appui d’un article du New York Times.

La guerre des traducteurs relancée

Deuxième API ouverte en bêta : « Speech », qui exploite le même moteur de reconnaissance vocale que Google Search et Google Now pour retranscrire de la voix en texte, dans « plus de 80 langues », depuis des applications ou des objets connectés.

« Plus de 5 000 entreprises » auraient testé le service en alpha, dont HyperConnect, qui s’en est servi à la manière d’un Skype Translator pour agrémenter son service de visioconférence d’une couche multilingue.

Avec le passage en bêta, on recense quelques nouveautés, dont la possibilité d’intégrer des mots-clés qui seront exploitables en contexte ; par exemple « lecture » et « pause » lorsqu’on regarde un film.

Un catalogue d’API qui s’étoffe

Les deux API s’inscrivent dans la veine du « machine perception », c’est-à-dire la vision par ordinateur, qui a déjà permis à Google d’améliorer la recherche de photos, la saisie manuscrite sous Android, la reconnaissance optique de caractères avec Google Drive et la recommandation de contenu sur YouTube.

La multinationale affiche sa volonté de garder le contrôle. En cas de dérapage technologique de l’intelligence artificielle, un framework servant de « bouton rouge » a été développé par la filiale DeepMind, par ailleurs à l’origine du programme AlphaGo.

Pour aller plus loin, on revisionnera, ci-dessous, l’intervention de Sundar Pichai à la Code Conference organisée début juin.

Le CEO de Google était revenu sur l’avancée des travaux du groupe dans l’intelligence artificielle, rappelle ITespresso. Il avait affirmé avoir ressenti « un point d’inflexion il y a trois, quatre ans », tout particulièrement dans la manière d’interpréter et d’intégrer la dimension du contexte.

A lire aussi :

Quand le machine learning peint comme Rembrandt

Le machine learning pour détecter les tweets en état d’ébriété

crédit photo © agsandrew – Shutterstock

Recent Posts

Red Hat France : la problématique VMware plus concrète que les LLM

Respectivement DG et CTO de Red Hat France, Rémy Mandon et David Szegedi évoquent le…

18 heures ago

À l’aune des conteneurs, Canonical étend son approche LTS

Canonical formalise un service de conception de conteneurs minimalistes et y associe des engagements de…

22 heures ago

L’Autorité de la concurrence va-t-elle inculper NVIDIA ?

L'Autorité de la concurrence s'apprêterait à inculper NVIDIA pour des pratiques anticoncurrentielles sur le marché…

23 heures ago

Failles sur les équipements de sécurité : le retex du CERT-FR

Le CERT-FR revient sur les failles dans équipements de sécurité présents notamment en bordure de…

2 jours ago

Silo AI, point d’ancrage européen pour Mistral AI

Mistral AI formalise ses travaux communs avec l'entreprise finlandaise Silo AI, qui publie elle aussi…

2 jours ago