Pour gérer vos consentements :
Categories: Logiciels

Uniserv célèbre ses 40 ans dans la qualité des données

Quel genre d’acteur de la qualité des données a été Uniserv depuis 1969 ?

Nous oeuvrons effectivement depuis 40 ans sur la qualité des données. À l’origine, il s’agissait essentiellement de traitements batch sur des mainframes permettant de vérifier les informations relatives aux adresses postales.

Tout cela a beaucoup évolué avec les besoins de nos clients et l’avènement de nouvelles technologies. Depuis sept ans, les solutions Uniserv combinent le batch et les traitements interactifs, et assurent le contrôle des données dès la saisie. D’ailleurs depuis trois ans, le cabinet Gartner nous positionne sur le domaine de la QDM ‘Quality data management‘).

Plus riche, l’offre est aujourd’hui composée de quatre pans :

1. l’analyse des données (diagnostic),

2. le traitement curatif en batch (correction postdiagnostic),

3. la correction et la validation à la volée (data firewalling d’après le Gartner),

4. le data monitoring.

Ce dernier consiste à définir des règles de gestion (sur les données, les types de données…), et à contrôler à la volée les données par rapport à des règles déclenchant des alertes engendrant des corrections…

Aujourd’hui Uniserv se positionne sur le processus complet : préventif comme curatif.

Mais qu’apportent vos solutions alors que les éditeurs de bases de données se dotent de modules de qualité des données ?

Grâce aux contrôles de validation et de modification automatisés, nos solutions peuvent apporter une réelle valeur ajoutée en lien direct avec les applications maison : back-office, front-office, point de vente, Web…

Nous proposons également des ‘plug-ins‘ s’intégrant très simplement à des solutions comme SAP CRM, Salesforce, Microsoft Dynamics,Siebel, etc.

Car les applications les plus belles du monde ne sont pas fiables si elles manipulent de mauvaises données. À l’instar du vieil adage informatique “Garbage In, Garbage Out” [NDLR : Déchet poubelle à l’entrée, déchet poubelle à la sortie], nous pouvons affirmer “Quality In Quality Out” !

Les éditeurs de bases de données assurent un stockage fiable de l’information, la pérennité des données, et intègrent parfois quelques règles de gestion. Nos solutions sont complémentaires, en tant qu’outils et technique de validation avant stockage et alimentation des SGBD.

Par exemple, les ETL extraient des informations des SGBD, les consolident, les restructurent et les normalisent. Nous ne sommes ni concurrents, ni incompatibles avec ces traitements.

Nous intervenons même au niveau de l’ETL : consolidation, dédoublonnage, recherche de similitudes, blacklists, etc.

Uniserv peut intervenir au niveau de l’applicatif. Par exemple, pour la saisie d’adresses postales sur un site marchand, comme voyages-sncf.com pour lequel nous validons 90 000 saisies d’adresses par jour.

Ces traitements n’impactent-ils pas les temps de réponse ?

Aujourd’hui, les technologies et la puissance des machines et des logiciels garantissent des impacts quasi imperceptibles pour ce type de traitements. Ainsi, Orange utilise nos solutions pour ses 25 000 postes de travail dans ses Boutiques Orange. Et cela est également vrai pour les traitements en batch. Ainsi, chez plusieurs de nos clients, nous assurons le contrôle en batch continu de dizaines de millions d’adresses par mois, sans perturber la production.

La qualité des données est-elle un luxe réservé aux grandes entreprises ?

La notion de qualité des données n’est pas uniquement liée à la taille de l’entreprise. C’est pourquoi nous venons de lancer une offre sur notre portail Saas Uniserv, pour favoriser l’accès aux technologies de qualité de données aux PME/PMI, à des coûts très abordables, et surtout sans investissement initial lourd.

Recent Posts

Les logiciels libres entrés au SILL au deuxième trimestre 2024

D'AgentJ à YesWiki, voici les dernières entrées au SILL (Socle interministériel de logiciels libres).

4 heures ago

WSL2 fait le grand saut vers Linux 6.6

En parallèle de diverses expérimentations, Microsoft livre une première version de WSL2 basée sur Linux…

9 heures ago

Google pétri d’incertitudes sur l’empreinte environnementale de l’IA

Le dernier rapport environnemental de Google comporte peu d'indicateurs spécifiques à l'IA. Quelles perspectives l'entreprise…

10 heures ago

Optimisation du processus commercial : la clé de la croissance pour les TPE/PME ?

Booster les performances des forces de vente en fondant les processus commerciaux sur ce que…

11 heures ago

Red Hat France : la problématique VMware plus concrète que les LLM

Respectivement DG et CTO de Red Hat France, Rémy Mandon et David Szegedi évoquent le…

1 jour ago

À l’aune des conteneurs, Canonical étend son approche LTS

Canonical formalise un service de conception de conteneurs minimalistes et y associe des engagements de…

1 jour ago