BI et théorie du chaos

Big DataBusiness IntelligenceData & Stockage

Les technologies d’analyse de données offrent tout le potentiel prédictif, descriptif et prescriptif. Mais faut-il encore savoir appréhender le besoins d’analyse dans des environnements incertains.

De nos jours les outils d’analyse de données servent une conception toujours linéaire des décisions. Raison pour laquelle ils n’ont parfois que des effets marginaux sur leur amélioration. L’enjeu pour les décideurs serait plutôt de revoir l’approche conceptuelle des modèles d’analyse afin de répondre aux réelles contraintes qu’imposent des environnements incertains.

Le contrôle en milieu entropique

La comptabilité est « l’organe de vision des entreprises. Elle doit permettre de savoir à tout instant où l’on est et où l’on va » (Fayol, 1918).

Au début du XXème siècle, on entend par comptabilité : système d’information décisionnelle. «Puissant moyen de direction » qui concoure aux opérations administratives de prévoyance et de contrôle (Fayol, 1918). Un « contrôle stratégique » qui consiste à établir des normes attendues, constater les performances réelles et en analyser les écarts (Asch, 1992).

Un siècle plus tard, les technologies d’analyse de données s’inscrivent toujours dans cette triple optique prédictive, descriptive et prescriptive (Appelbaum, et al., 2017).

Cependant, la viabilité de cette approche déterministe repose sur deux postulats révolus de nos jours : la simplicité et la stabilité des environnements économiques (Lorino, 1995).

Les technologies du big data ambitionnent depuis de couvrir, par la collecte et l’exploitation de données étendues, toute l’entropie des environnements. En complément, les systèmes de Business Intelligence évoluent vers une mise à disposition de ces données en mode « self-service » afin de servir des besoins d’analyse toujours plus élargis, fluctuants et permanents (Kohtamäki, 2017).

Mais les résultats restent questionnables car c’est parce que ces données proviennent de ces environnements entropiques qu’elles en portent le substrat de la désorganisation et de l’imprédictibilité. De fait, beaucoup de ces projets de Big Data Analytics échouent en raison d’une trop grande volumétrie de données et du manque de compétences pour en faire ressortir des informations d’ordre réellement stratégique (Jayakrishnan, et al., 2018).

Les technologies d’aujourd’hui offrent donc tout le potentiel. Mais faut-il encore savoir appréhender le besoins d’analyse dans des environnements incertains.

Le chaos des données financières

Dans la continuité des travaux de la fin du XIXème siècle sur la thermodynamique, le concept de systèmes chaotiques ou systèmes dynamiques non linéaires se formalise au cours du XXème siècle. Paradigme applicable à la description des systèmes sociaux (Krasner, 1990), le champs de l’entreprise en présente toutes les caractéristiques (Thiétart, et al., 2006) :

> La complexité : Elle se définie par « la présence d’un nombre important d’éléments indépendants en interaction » (Thiétart, 2000), plus que ne peut en supporter l’esprit.

La comptabilité s’est enrichie au fil des décennies de visions analytiques diverses. Si bien qu’il est aujourd’hui difficile de cibler les axes pertinents pour retranscrire de manière soutenable les performances critiques de la stratégie. Cette accumulation de potentiels d’analyse entraine une inflation de reportings partiels, souvent contradictoires entre eux, qui nourrissent le sentiment de complexité et le besoin d’axes analytiques supplémentaires.

> L’instabilité : Elle se caractérise par l’incapacité d’anticiper l’impact qu’aura un changement d’état, même infime, d’une composante du système sur l’ensemble de celui-ci. Ce principe imagé par l’effet papillon (Lorenz, 1972) rend les conséquences des décisions stochastiques. L’exercice de la prévision repose sur des conditions d’analyse initiales basées sur l’historique.

Or, dans des environnements fluctuants et complexement imbriqués, ces conditions initiales évoluent continuellement avec de forts impacts. Les processus budgétaires et de planification, par exemple, aboutissent inévitablement à des scénarios rapidement caducs. La volonté de limiter les spéculations stratégiques sur des bases erratiques pousse alors les directions à démultiplier l’exercice, lui donnant au final l’inefficacité du supplice de Sisyphe.

> La fractalité : Elle se définie par l’autosimilarité des échelles (Mandelbrot, 1892). C’est-à-dire que les deux dynamiques décrites précédemment se reproduisent à l’infini sur des échelles plus petites. Se pose ici la question du grain de finesse pertinent pour travailler les données.

Depuis les documents transactionnels jusqu’aux ratios financiers globaux, l’effet étudié peut être plus ou moins perceptible et diagnostiqué. En plus des axes d’analyse et des récurrences temporelles, il faut donc savoir jongler entre des niveaux d’imbrications qui démultiplient rapidement la volumétrie de données à embarquer.

Suivre le chaos déterministe

Pour décider « les organisations doivent créer un niveau acceptable de certitude » (Daft, et al., 1984). Mais c’est aussi parce que cet « îlot de certitude » peut-être « en porte-à-faux avec les exigences auxquelles l’organisation est soumise » qu’il en devient source de chaos (Thiétart, et al., 2006). L’enjeu est donc de rechercher une zone d’incertitude acceptable.

Car ces systèmes chaotiques ne sont pas complètent ergodiques mais s’imbriquent dans un schéma directeur périodique que l’on qualifie d’attracteur étrange (Lorenz, 1963). C’est ce schéma que le bornage des données à embarquer doit permettre de faire ressortir comme le champs des possibles réactions aux perturbations. Ceci en :

> Prenant le temps d’observer les cycles pour définir la bonne récurrence d’analyse

> Sélectionnant les dimensions et grains analytiques ou peuvent se manifester les perturbations

Par exemple, le délais d’encaissement des créances peut être vu comme un indicateur chaotique.

Il est tout d’abord complexe puisqu’une déviation de ce délai peut être lié à des facteurs divers comme un problème de qualité entrainant des litiges, des difficultés dans la relation commerciale, des difficultés financières des clients ou encore des défauts dans le processus de facturation.

Il est ensuite instable car l’une ou une combinaison de ces variables peuvent agir aléatoirement et influer fortement sur l’indicateur.

Il est enfin fractal car chacune de ces dimensions analytiques regroupent des niveaux de détails plus ou moins pertinents selon les cas et les moments pour comprendre la déviance de l’indicateur. Parfois une facture seule en sera la cause, parfois il faudra regrouper ces factures sous un grain client, groupe de clients ou secteurs de ventes pour saisir la nature du problème. Et si cette dimension commerciale ne s’avère par pertinente, il faudra répéter cet exercice de polarisation sur les autres dimensions.

Une perturbation peut donc s’appréhender par l’un de ces nombreux aspects ou une combinaison de ceux-ci. Raison pour laquelle, l’outil d’analyse de cet indice devra embarquer l’ensemble de ces données et offrir des fonctionnalités exploratoires pour cibler la dimension et le grain analytique pertinent. Il s’agit donc d’avoir une approche pragmatique sur l’observation des possibles plutôt que d’empiler séparément les rapports sur tous les angles ou de limiter l’analyse à une seule de ces visions.


Bibliographie

Appelbaum Denis [et al.] Impact of business analytics and enterprise systems on managerial accounting [Article] // International Journal of Accounting Information Systems. – 2017. – Pages 29-44 : Vol. 25.

Asch David Strategic Control : A Problem Looking for a Solution [Journal]. – [s.l.] : Long Range Planning , 1992. – Vols. Vol. 25, n°2, pp. 105-110.

Daft R.L. and Lengel R.H. Information Richness: A New Approach to Managerial Behavior and Oragnization Design [Journal]. – [s.l.] : B.M. Staw and L.L. Cummings (éds.), Research in Organizational Behavior, 1984. – Vol. Vol. 6.

Denis Jean-Philippe Retour sur les principes d’articulation entre contrôle et stratégie – Une perspective ago-antagoniste [Conference] // Conférence de l’AIMS. – Paris : [s.n.], 2002. – Vol. 11.

Duncan Robert Characteristics of Organizational Environments and Perceived Environmental Uncertainty [Journal]. – [s.l.] : Administrative Science Quarterly , 1972. – Vols. Vol. 17, No. 3.

Fayol Henri. Administration industrielle générale [Book]. – 1918.

Jayakrishnan Mailasan, Bin Mohamad Adbul Karim and Bin Mokthar The holistic view of business intellignence (BI) and big data analytics (BDA) towards designing strategic performance management framework: A case study [Article] // Journal of Theoretical and Applied Information Technology. – 2018. – 15th April 2018. – Vol. Vol.96. No 7.

Kohtamäki Markoand Real-time Strategy and Business Intelligence [Book]. – Vassa : University of Vaasa, 2017.

Krasner Saul The Ubiquity of Chaos [Book]. – Washington DC : AmericanAssociation for the Advancement of Science, 1990.

Lorenz Edward Prédictibilité : le battement d’ailes d’un papillon au Brésil peut-il provoquer une tornade au Texas ? [Conference] // American Association for the Advancement of Science (AAAS). – 1972.

Lorenz Edward Deterministic non-periodic flow [Journal]. – [s.l.] : Journal of the Atmospheric Sciences, 1963.

Lorino Phlippe Comtes et récits de la performance [Book]. – Paris : les Éd. d’Organisation, 1995.

Mandelbrot Benoît The Fractal Geometry of Nature [Book]. – [s.l.] : W.H. Freeman, 1892.

Thiétart Raymond-Alain and Forgues Bernard La dialectique de l’ordre et du chaos dans les organisations [Journal]. – [s.l.] : Revue française de gestion, 2006. – pages 47 à 66 : Vol. n° 160.

Thiétart Raymond-Alain Management et complexité: Concepts et théories [Journal]. – Paris : Dauphine marketing stratégie prospective, 2000. – Vol. Cahier n°282. 


Auteur
En savoir plus 
Project Manager
Square Management
En savoir plus 

Livres blancs A la Une