Utilisation d’outils d’IA personnels dans un cadre professionnel : attention aux risques pour la sécurité des données
L’un des plus grands dangers est que les utilisateurs cherchent constamment à optimiser leur productivité, souvent en recourant à des outils non validés par l’entreprise, ce qui augmente les risques de vol ou de mauvaise utilisation des données.
Les récentes enquêtes, notamment celle de Cyberhaven, mettent en lumière une tendance préoccupante : une majorité des employés utilise des outils d’IA personnels pour accomplir leurs tâches professionnelles.
Selon les résultats, environ 74 % de l’utilisation de ChatGPT au travail se fait via des comptes personnels, 1 et plus de 90 % de l’utilisation de Bard et Gemini se fait de la même manière. De plus, des documents sensibles comme des documents juridiques, du code source et des matériaux de R&D sont fréquemment partagés via ces outils.
L’ampleur du problème et les risques associés
Il est indéniable que l’utilisation d’outils d’IA personnels dans un cadre professionnel présente des risques. Bien que la probabilité qu’OpenAI ou Google exploitent les données sensibles soit faible, l’utilisation de ces outils en dehors des environnements sécurisés de l’entreprise va à l’encontre des politiques de sécurité.
L’un des plus grands dangers est que les utilisateurs cherchent constamment à optimiser leur productivité, souvent en recourant à des outils non validés par l’entreprise, ce qui augmente les risques de vol ou de mauvaise utilisation des données.
Lire aussi : Assistants IA : un nouveau défi pour les RSSI
L’augmentation du nombre de startups d’IA et la variété croissante des outils augmentent les risques de fuites de données. Un premier incident de fuite de données par l’IA semble inévitable. Cet incident pourrait être causé par un utilisateur qui partage des informations sensibles par inadvertance, plutôt que par un piratage complexe.
En effet, comme souvent avec les piratages, le principal risque provient souvent de l’intérieur de l’organisation.
La plausibilité des chiffres du sondage
Les chiffres avancés par Cyberhaven sont tout à fait plausibles. Les utilisateurs cherchent à accomplir leur travail de manière plus rapide et efficace, et les outils d’IA générative comme ChatGPT peuvent considérablement améliorer leur productivité. Cette tendance est particulièrement marquée chez les développeurs et les métiers de la R&D, qui manipulent régulièrement des volumes importants de données et de code.
Les solutions pour atténuer les risques
Pour répondre à cette problématique, plusieurs solutions peuvent être envisagées :
1. Fournir des outils d’IA approuvés
Les entreprises doivent fournir des alternatives approuvées et sécurisées, telles que Microsoft Copilot, qui offrent les mêmes fonctionnalités que les outils populaires tout en garantissant la protection des données.
Lire aussi : Sécurité de l'IA générative : comment empêcher l'exposition aux données de Microsoft Copilot
2. Éduquer les employés
Il est crucial de sensibiliser les employés aux risques associés à l’utilisation d’outils non corporatifs et de les former sur les meilleures pratiques en matière de sécurité des données.
3. Surveiller et contrôler
Les entreprises doivent mettre en place des systèmes de surveillance pour suivre et analyser l’utilisation des outils d’IA. Comme pour les emails, il est nécessaire de surveiller non seulement l’activité mais aussi le contenu des échanges pour détecter toute fuite de données sensibles.
Les entreprises sont confrontées à un défi majeur : équilibrer la productivité accrue offerte par les outils d’IA avec les impératifs de sécurité des données. Ignorer ce problème n’est pas une option. En fournissant des outils d’IA sécurisés, en éduquant les employés et en mettant en place des systèmes de surveillance efficaces, les entreprises peuvent minimiser les risques tout en tirant parti des avantages de l’IA.
Il est essentiel d’offrir des solutions officielles pour que les employés n’aient pas besoin de chercher des alternatives non sécurisées, garantissant ainsi la protection des informations sensibles de l’entreprise
Jérôme Soyer, Vice-président régional de l\'ingénierie des ventes, Europe continentale - Varonis.
Sur le même thème
Voir tous les articles Data & IA