SAP annonce la disponibilité d'une 1ère application HANA
Est-on en train de ré-inventer le 'mainframe'? Certes, autour d'architectures multicoeurs avec traitement massivement parallèle. Mais où est la révolution dans le concept?
Cette offre, affirme SAP, constitue un tournant dans l'histoire de la gestion de données. HANA (High-performance analytic appliance) serait une petite révolution car, pour les entreprises cible, cette appliance conduirait à « repenser les couches et la structure du système d'information traditionnel« . Pas moins.
Rappel: cette solution sous forme d »appliance' (logiciel et matériel intégrés) repose sur la technologie de mise en mémoire vive ('in-memory') de toutes les données que l'on veut analyser, plutôt que de procéder à des traitements successifs par sous-ensembles, avec une succession d'accès disques ce qui, aujourd'hui encore, peut prendre plusieurs heures, voire plusieurs jours.
En installant toutes les tables de données et en les chaînant sur une ressource mémoire unique de plusieurs tera-octets adressée par des processeurs multi-coeurs très rapides, on obtient des résultats d'analyse « quasi instantanément ou quasi 'temps réel' ».
Cette technologie « permet de simuler des scénarios en temps réel, d'analyser rapidement des mises en relations complexes de données -et donc de prendre des décisions » (.)
Comme l'a expliqué à la presse, ce 1er décembre, Vishal Sikka, directeur 'Technology and Innovation Platform' lors d'une téléconférence en direct du salon SAP TechEd 2010 à Bengalore (centre de l'Inde), cette solution a été rendue possible grâce à la baisse de prix considérable des chips mémoires mais également des processeurs de nouvelle génération, des 'CPU' multi-coeurs avec une capacité d'adressage mémoire quasi illimitée. Une même CPU peut donc charger en mémoire des volumes de données de plusieurs tera-octets et exécuter des traitements en quelques secondes.
A cette conférence, un responsable informatique du fabricant d'outillage Hilti a témoigné: « Des analyses de données qui jusqu'ici nécessitaient 2 à 3 heures de traitement, se font en 2 à 3 secondes« , a-t-il expliqué aux journalistes incrédules. Pourquoi? « Tout simplement, parce que le système charge en mémoire l'intégralité des tables de donnés -ou 'métadonnées', ce que nous ne pouvions pas faire jusque là. »
« Nous avons fait le test avec 9 millions d'enregistrements « clients » : en installant la totalité en mémoire, il a été possible de faire des tris et simulations en quelques secondes, et non plus sur des jours d'extraction des données depuis notre 'data warehouse' avec SAP Business Suite« , explique Martin Petry, autre responsable (CIO) de Hilti. Nous allons explorer plus avant l'impact de transformation sur notre activité« .
Hilti fait partie d'un petit groupe d'entreprises -dont Coca-Cola Hellenic, Future group- qui ont contribué à un programme de co-développement impliquant d'autres partenaires de l'industrie IT (non cités!). SAP parle d'un « moteur de calcul innovant permettant de réaliser directement 'in-memory' un traitement d'application. »
SAP BO Strategic Workforce Planning
SAP en a profité pour introduire une nouvelle application: SAP BusinessObjects Strategic Workforce Planning, la première reposant sur HANA.
Dans les mois qui viennent, SAP prévoit d'introduire d'autres applications également co-développées avec des partenaires et des clients, donc pré-paramétrées, vraisemblablement.
Le système, affirme SAP, permet de « lancer des rapports complexes et des requêtes parmi 500 milliards d'enregistrements de points de vente en moins d'une minute« , cela grâce à des algorithmes de traitement sur des processeurs 'multi-coeurs'. Ceci a été réalisé sur une configuration système comptant 10 serveurs lames (ou blades) de 32 coeurs chacun.
SAP ajoute que la montée en puissance peut être linéaire en fonction des matériels et il sera possible « d'aligner des configurations comptant jusqu'à 1000 coeurs et plus pour réaliser des analyses complexes en temps réel« .
Il s'agit de traitement massivement parallèle. SAP ne précise pas l'origine de ces serveurs ni leur prix. Interrogé sur ce point, Visha s'est contenté de répéter que le coût de chaque configuration pour SAP avait été d'un demi-million de dollars ».
A suivre, donc.
Chez la concurrence, Oracle, a été annoncée en juillet 2010 une offre 'in-memory' ou de mémoire 'cache': Oracle TimesTen In-Memory Database 11g et In-Memory Database Cache 11g. Et son offre hardware/software, en la matière ('Exadata'), repose désormais sur des systèmes Sun (et non plus HP). Et pour cause -depuis un certain rachat.
Sur le même thème
Voir tous les articles Cloud