Pour gérer vos consentements :
Categories: Cloud

Banque: un éditeur propose une solution intégrée ‘Bâle II’

Fermat, spécialiste de la gestion de risque bancaire, intègre un logiciel de modélisation, développé par Kxen, knowledge extraction engines, et propose ainsi, depuis ce 21 mars, une solution intégrée pour répondre aux obligations de Bâles II, en matière d ?évaluation des risques.

La nouvelle valeur ajoutée de l’outil réside dans la modélisation qu’il procure, explique l’éditeur qui revendique plus de clients à lui tout seul que l’ensemble de ses concurrents, sur le segment des produits liés à la conformité réglementaire. Modèle en main C’est en effet cette modélisation qui permet une prise en main qui ne dure qu’un mois environ, d’après les promesses de la société. Ce qui permet au gestionnaire de se concentrer sur le pilotage du risque. Plus besoin, donc, de dédier des statisticiens chevronnés pendant 3 à 6 mois, comme dans le cas d’outils non modélisés. Une différence qui pourrait faire revenir les établissements bancaires sur leur tradition qui consiste à développer leurs propres outils en interne. Les « outils maison » de calcul de risque lié au crédit ne sont pas nécessairement adaptables à la quantité de reporting qu’exige Bâles II, ni à ses autres demandes. Back testing Le produit de Fermat intègre une fonction de back testing, également exigée par la réglementation. En effet, il permet de comparer le risque prévu avec les pertes effectives de l’année passée, et ce, en remontant à la contribution de chaque contrat au résultat. On peut ainsi affiner le modèle, et, partant, les prévisions de l’année à venir. Concrètement, le progiciel intègre les flux des informations fournies par la banque, et restitue états et rapports d’audit. Doté d’une interface en java, le logiciel de modélisation stratégique de Kxen établit les modèles statistiques correspondant aux différentes cibles de clientèles établies par la banque. Il est basé sur un algorithme spécialisé de régression. Ce dernier permet de construire des modèles prédictifs qui génèrent des indicateurs de probabilité de défaut, et une estimation de la perte en cas de défaut, à partir des données de la banque. Et ce, quelle que soit la base de donnée de départ, Oracle ou DB2, par exemple. L’indispensable collecte de données Or, les banques de détail doivent gérer de nombreuses informations , (âge, CSP, contrats accordés, prêts à la consommation, statut marital..) qu’il est nécessaire de centraliser. Si certains établissements sont déjà très au point, aux Etats-Unis notamment, c’est loin d’être le cas de toutes les banques européennes. Un chantier qui peut prendre beaucoup de temps, indépendamment des 3 à 9 mois nécessaires à implémenter l’outil, en fonction de la taille et de la complexité de l’activité.

Recent Posts

Le Réseau interministériel de l’État, sujet à dépendance

La Cour des comptes appelle à formaliser et à professionnaliser certains aspects du RIE, tout…

16 heures ago

Etalab en position de faiblesse au sein de la Dinum

La Cour des comptes attire l'attention sur le risque d'affaiblissement d'Etalab, privé, ces dernières années,…

18 heures ago

Une Dinum « balbutiante » sur l’open data et les logiciels libres

Missions historiques de la Dinum, l'ouverture des données publiques et la promotion des logiciels libres…

20 heures ago

Pour son premier LLM codeur ouvert, Mistral AI choisit une architecture alternative

Pour développer une version 7B de son modèle Codestral, Mistral AI n'a pas utilisé de…

2 jours ago

Microsoft x Inflection AI : l’autorité de la concurrence britannique lance son enquête

L’Autorité de la concurrence et des marchés (CMA) britannique ouvre une enquête sur les conditions…

2 jours ago

Thomas Gourand, nouveau Directeur Général de Snowflake en France

Thomas Gourand est nommé Directeur Général pour la France. Il est chargé du développement de…

2 jours ago