La NSA noyée sous la masse d'informations collectées
Trop d'information tue l'information. Voilà en substance le message que cherche à faire passer William Binney, ancien programmeur à la NSA. « Ce qu'ils font, c'est se rendre eux-mêmes dysfonctionnels en captant toutes ces données », explique William Binney, cité par le Wall Street Journal.
« Nous aveuglons les gens avec des données dont nous n'avons pas besoin », confirme Edward Snowden, le lanceur d'alerte qui a été à la base de l'affaire mettant en cause la NSA. Le Wall Street Journal indique par ailleurs que certains analystes de la NSA auraient demandé à ce que l'agence collecte moins de données, afin d'en faciliter le traitement.
La réponse : le Big Data analytique
La NSA se défend en expliquant que, primo, elle ne copie pas toutes les données et que, secundo, elle se doit de collecter les informations nécessaires à la protection des intérêts du pays. Quitte d'ailleurs à capter des informations - à priori - sans intérêt.
Un discours somme toute classique, mais non dénué de sens. De fait, les données collectées ne sont pas traitées directement par des opérateurs humains, mais passent toute d'abord par le filtre d'outils informatiques d'analyse.
Lire aussi : La XRD peut-elle remplacer les SIEM dans les SOC ?
Or, dans ce domaine, plus d'information permet d'apporter plus de précision dans l'analyse. C'est l'accumulation d'indices qui permet ici de monter un dossier pertinent. Une technique qui nécessite toutefois l'utilisation d'outils de traitement adaptés à des ensembles de données massifs, bref, à recourir à du Big Data analytique.
Crédit photo : © photobank.kiev.ua - Shutterstock.com
Voir aussi
Quiz Silicon.fr - Fuites de données, petits secrets et grands scandales
Sur le même thème
Voir tous les articles Data & IA