Recherche

Business Analytics : la datavisualisation entre dans son âge d'or

Avec des machines capables de manipuler d’énormes masses de données, de générer des visualisations ultrasophistiquées, il n’a jamais été aussi simple d’analyser des données, y compris pour les utilisateurs métier. Retour sur une révolution de l’analytique encore en marche.

Publié par le | Mis à jour le
Lecture
10 min
  • Imprimer
Business Analytics : la datavisualisation entre dans son âge d'or

Si les premières représentations de données remontent au début du XIXe siècle, cet art vient de connaître une fulgurante évolution avec la démocratisation des moyens de calcul et de visualisation graphique. Des modes de représentation réservés aux chercheurs et aux spécialistes du Data Mining sont désormais accessibles à tous. A l’origine de cette révolution, les outils de Business Intelligence déployés dans les années 90, à commencer par le français Business Objects, Cognos, SAS Institute ou Crystal Report, des pionniers dont les outils étaient initialement destinés aux informaticiens et experts qui devaient développer les rapports et des tableaux de bord pour le compte des utilisateurs métier.

C’est au début des années 2000 que ce que l’on appelle le monde du DataViz est entré dans son âge d’or avec les débuts de l’analytique pour tous.

1 Analyse et dataviz

Artisan de cette révolution qui allait amener la visualisation de données sur chaque PC, chaque tablette numérique, l’éditeur Qlik. Le suédois s’est fait une place sur le marché mondial face aux géants du logiciel avec une technologie, le stockage associatif, qui permet de stocker de gros volumes de données en mémoire mais aussi de faire sauter toutes les contraintes quant aux requêtes que les utilisateurs peuvent réaliser en quasi-temps réel. « Ce qui nous différencie encore sur le marché, c’est notre moteur associatif, une technologie qui a été breveté depuis la création de notre outil » explique Stéphane Briffod, Presales Director Central Europe de Qlik.

« Le « in-memory » ne fait qu’accélérer les accès aux données, ce moteur permet aux utilisateurs de répondre à des questions auxquelles il n’avait initialement pas pensé. Tous les chemins d’investigation sur la donnée sont possibles et l’utilisateur n’est pas contraint de suivre un chemin de requêtage prédéfini par la DSI. »
La stratégie de Qlik est aujourd’hui d’aller bien au-delà de l’outil analytique lui-même, mais de couvrir l’intégralité de la chaine de valeur de la donnée. L’éditeur a réalisé plusieurs acquisitions en ce sens, notamment celle d’Attunity en mai 2019 pour implémenter de Change Data Capture sur la plateforme Qlik pour réaliser de l’intégration de données en temps réel et de la gouvernance de DataLake/Data Warehouse. Cette acquisition vient renforcer le logiciel de catalogue des données acquis avec la prise de contrôle de Podium Data en 2018, rebaptisée depuis Qlik Data Catalyst.

Qlik veut couvrir de plus en plus la chaîne de traitement de la donnée, une stratégie en tout point concordante avec celle de son rival américain Tableau. « Si l’analytique reste notre cœur de métier, la plateforme Tableau est bien plus que cela aujourd’hui » explique Olivier Bouquin, Directeur des avant-ventes en France et l’Europe du Sud.
« Nous avons intégré un volet Data Preparation, de gestion du cycle de vie de la donnée, l’interfaçage avec des outils de Data Science comme R ou Python, Tableau, c’est de la DataViz, mais aussi un outil d’analyse de la donnée de bout en bout. »

Au cœur de l’offre Tableau, la technologie VizQL, un langage qui permet d’interagir avec les bases de données afin de délivrer des résultats graphiques. « Lorsque l’utilisateur fait du « drag and drop » dans son interface, il invoque ce langage. Tableau analyse la structure des données et peut ensuite transformer ces données en un graphique adapté à la nature de chaque donnée. Il n’est donc plus nécessaire de passer par une série d’assistants pour pouvoir générer un graphique pertinent, ce qui permet de traiter un flot de questions en continu sans interrompre l’utilisateur dans son cheminement. »
L’objectif de Tableau est de démocratiser la visualisation de données et la mettre à la portée des métiers, l’idée étant que les entreprises n’aient plus à mener des projets informatiques à chaque fois qu’un utilisateur a besoin d’un rapport ou d’un nouveau tableau de bord. Les utilisateurs métiers doivent pouvoir s’approprier l’outil et être capables eux-mêmes de poser leurs questions et obtenir des réponses sans délai, de manière graphique.

2 Une nouvelle génération d’outils

Autre nouvel entrant qui a le vent en poupe, Sisense. La startup vient de lever 100 millions d’euros avec comme stratégie de défier les solutions analytiques de nouvelle génération sur les gros volumes de données : « Tableau et Qlik sont tous de bons choix lorsque le projet est simple et que les données sont de taille modeste. Nous sommes capables de fournir cette même expérience facile à utiliser sur de gros volumes de données ou lorsque l’écosystème IT est complexe » argumente Amir Orad, CEO de Sisense.

Face à ces nouveaux acteurs, les éditeurs traditionnels ont dû faire évoluer leurs offres. Ainsi, SAS Institute, un éditeur traditionnellement très prisé des statisticiens, a lancé sa solution SAS Visual Analytics au début des années 2010. « La portée de l’outil va aujourd’hui bien au-delà de la visualisation de données, c’est maintenant un outil de démocratisation des Data Sciences et des usages du Machine Learning » estime Rémi Griveau, Datavisualization & Agile BI Advisor chez SAS France.
« L’outil permet aujourd’hui d’exploiter des algorithmes d’IA sans écrire une ligne de code et nous intégrons aussi des fonctionnalités de type AutoML pour analyser automatiquement les jeux de données corriger les données et proposer un modèle d’analyse adapté. »
Un autre acteur historique du décisionnel a su opérer une véritable révolution culturelle dans son offre, Microsoft.

Avec Reporting Services, Microsoft proposait aux entreprises une solution de Reporting assez classique mettant en œuvre sa base de données maison, SQL Server. En 2010, Microsoft a totalement dépoussiéré son offre avec le lancement de Power BI, tirant profit de la forte implantation d’Excel dans les entreprises pour proposer des extensions analytiques aux goûts du jour : Power Query, Power Pivot et Power View. Depuis, Microsoft n’a eu de cesse d’améliorer cette offre qui a rapidement gagné des places dans les études des analystes.
Power BI fait désormais partie de l’offre haut de gamme d’Office 365, le forfait E5, ce qui permet à l’offre analytique de Microsoft de bénéficier d’une force de frappe commerciale sans égal sur le marché.

3 IA et langage naturel s’imposent

Les éditeurs de solutions analytiques rivalisent sur les capacités en intelligence artificielle de leurs solutions et notamment dans l’exploitation du langage naturel.
C’est la voie suivie par Qlik qui a réalisé l’acquisition de la société Crunchbot en janvier 2019 de afin de créer Qlik Insight Bot. L’intégration d’une brique de NLP (Natural Langage processing) permet ainsi aux utilisateurs de taper une requête en texte libre : « je souhaite analyser mes ventes par pays » et obtenir directement en réponse le bon graphique des ventes. L’IA choisit la représentation graphique la plus adaptée aux données. Ce couplage entre NLP et IA permet de délivrer ce que l’éditeur appelle de l’intelligence augmentée car l’IA apprend de ses interactions avec les utilisateurs pour s’adapter à leurs habitudes.

Le chatbot semble un outil particulièrement bien adapté pour les utilisateurs qui ont essentiellement besoin de consommer de l’information sans vouloir ou même pouvoir manipuler une interface utilisateur complexe. C’est notamment le cas des collaborateurs en situation de mobilité dans un entrepôt ou en déplacement et pour qui il n’est pas aisé de sélectionner une référence parmi des milliers de références sur leur smartphone pour connaitre l’état du stock de ce produit. Le chatbot enlève encore un frein à l’utilisation de l’analytique.

Avec « Ask Data », Tableau n’est pas en reste et propose aussi une interface en langage naturel, mais l’américain propose aussi un module d’intelligence artificielle nommé « Explain Data ».
En pointant une valeur sur une courbe, le logiciel est capable d’expliquer la valeur : s’il s’agit d’une valeur aberrante, il va expliquer pourquoi cette donnée est probablement une erreur de saisie. L’utilisateur n’a plus à consulter des millions de lignes en base de données d’où proviennent les informations pour vérifier s’il s’agit d’une erreur de saisie, d’un problème d’intégration de donnée ou tout simplement de la contre-performance d’un commercial.

Autre acteur à croire fortement dans le langage naturel, le géant Oracle. Karim Zein, vice-président d’Oracle France explique pourquoi cette nouvelle approche va profondément changer le rapport des métiers vis-à-vis des données. « Notre conviction est qu’il faut simplifier l’accès aux données pour les utilisateurs métiers et le meilleur moyen d’y parvenir, c’est le langage naturel.

Requêter en langage naturel, cela veut dire que l’on n’a plus à se poser la question de comment faire pour construire le modèle de données qui m’apportera la réponse. On va simplement demander quel est le produit le plus rentable et le système va élaborer une réponse à partir des Gigaoctets de données de ventes qui sont stockées. Avec le langage naturel et la synthèse vocale, la solution va être capable de déterminer, par rapport à ces données de vente quel sera le produit le plus rentable, l’agence d’un réseau de distribution la plus profitable, ou, à partir de données RH, quel sont les 10 employés pour lesquels le risque d’attrition est le plus élevé. Cela peut sembler futuriste, mais ce sont des solutions qui existent dès maintenant. »

Intégré aux plateformes analytiques, le NLP autorise le requêtage en langage naturel sans avoir à maitriser SQL ou le moindre langage de requête. L’IA permet aussi aux utilisateurs de se détacher des modèles de données et faire de l’analyse multisources sans réellement savoir où et comment sont stockées les données dont ils ont besoin. Le langage naturel permet de faire parler les données et ce, sans devoir développer de réelle expertise sur un outil analytique et sur le modèle de données sous-jacent.

4 De l’analytique au storytelling

Si les éditeurs de solutions analytiques travaillent depuis des années à améliorer l’ergonomie de leurs solutions et simplifier l’accès des outils analytiques aux métiers, des startups imaginent d’autres moyens pour diffuser les données auprès des utilisateurs métiers.

Ainsi, le français Toucan Toco ne propose pas d’outils analytiques traditionnels mais ce qu’il nomme du Data Story Telling. Charles Miglietti, CEO et cofondateur de la startup explique ce positionnement original : « Le Data Story Telling, c’est la capacité à raconter des histoires simples et claires sur les données à des utilisateurs néophytes et non techniques. C’est avant tout un outil qui doit faciliter la création d’applications métiers qui doivent faire la part belle à la simplicité. »

La solution délivre des petites applications scénarisées autour du besoin métier, une sorte de feuille Powerpoint animée par laquelle l’entreprise va délivrer des informations à des utilisateurs. « C’est une approche qui est bien adaptée aux industries en réseau, comme par exemple Renault qui veut communiquer des niveaux de stock de pièces détachées auprès de ses concessionnaires, ou encore Sodexo pour diffuser des données financières auprès des gestionnaires de ses restaurants, sans devoir les former à un outil. » Les applications sont créées avec un studio et mette en œuvre des composants pré-packagés, si bien qu’il n’est pas nécessaire d’avoir des spécialistes de l’UX et de l’animation pour mettre en scène les données.

Autre éditeur à avoir pris ce tournant vers le story telling, Datatelling. « Les entreprises qui veulent aller vers une stratégie Data Driven portent leurs efforts sur l’amont, c’est-à-dire le stockage de la donnée, sa sécurité et sa gouvernance. Son accès par les utilisateurs repose toujours sur des outils de reporting et dashboarding si bien qu’en réalité les métiers n’ont pas d’accès direct à la donnée. Notre approche, c’est que les métiers doivent avoir accès à la Data, sans formation. »
Datatelling propose une solution de Data Story Telling qui privilégie une approche single page, comme un page Facebook avec toutes les données et les graphes sont sur une seule et même page que l’utilisateur va dérouler pour avoir plus d’informations.
« C’est une page qui est organisée par grandes thématiques, avec par exemple une première section avec le chiffre d’affaires par département, puis l’analyse de la performance de chaque produit, puis la marge en fonction de divers critères. » Si l’approche demande un gros travail d’analyse et de mise en forme à la mise en place, ensuite les utilisateurs peuvent naviguer seuls parmi ces données prédigérées. Une approche qui a déjà séduit Marionnaud, GSK et Warner.

Crédit photo Une : @Tableau

Sur le même thème

Voir tous les articles Data & IA

Livres Blancs #bigdata

Voir tous les livres blancs

Vos prochains événements

Voir tous les événements

Voir tous les événements

S'abonner
au magazine
Se connecter
Retour haut de page