Dans les grandes entreprises, des données sensibles sont partagées avec des applications d’IA générative chaque heure dans une journée de travail.
Le code source, catégorie de données sensibles partagée sur ChatGPT
Pour 10 000 utilisateurs, les entreprises subissent chaque mois environ 183 incidents de partage de données sensibles avec l’application ChatGPT.
De plus, l’utilisation des applications d’IA générative a augmenté de 22,5 % au cours des deux derniers mois.
Usage croissant des applications d’IA
Les entreprises d’au moins 10 000 collaborateurs emploient en moyenne cinq IA applicatives par jour, ChatGPT comptant plus de huit fois plus d’utilisateurs quotidiens actifs que toute autre application.
Au cours des deux derniers mois, Google Bard est l’application d’IA qui a enregistré la croissance la plus soutenue, avec une hausse hebdomadaire du nombre d’utilisateurs de 7,1 %, contre 1,6 % pour ChatGPT. Google ne devrait pas rattraper ChatGPT avant plus d’un an.
Le monde des applications d’IA générative va probablement évoluer de façon significative au cours de cette période, un grand nombre de plateformes étant en cours de développement.
ChatGPT alimenté en données sensibles
Les codes source sont publiés dans ChatGPT, plus que tout autre type de données sensibles, avec un taux mensuel de 158 incidents pour 10 000 utilisateurs.
Parmi les autres données confidentielles partagées sur ChatGPT figurent
- des données réglementées, notamment financières, ou médicales
- des informations personnellement identifiables (IPI)
- des blocs de propriété intellectuelle
Selon Ray Canzanese, Threat Research Director, Netskope Threat Labs , « il est impératif que les entreprises mettent en place des contrôles autour de l’IA afin de pallier toute fuite de données sensibles, l’objectif ultime étant de déployer des contrôles qui permettent aux utilisateurs de bénéficier des avantages de l’intelligence artificielle en rationalisant les opérations et en améliorant leur efficacité, tout en atténuant les risques »
Bloquer ou permettre l’accès à ChatGPT
Les données collectées par Netskope montrent que dans des secteurs fortement réglementés tels que les services financiers et la santé :
- près d’une entreprise sur cinq interdit purement et simplement à ses employés d’utiliser ChatGPT, contre seulement une sur vingt dans le secteur technologique.
Les entreprises doivent centrer leur approche sur
- l’identification des applications autorisées
- la mise en place de contrôles permettant aux utilisateurs d’en exploiter pleinement le potentiel
- le filtrage de domaines
- le filtrage des adresses URL
- l’inspection des contenus pour neutraliser les attaques
D’autres mesures sont indispensables :
- Le blocage de l’accès aux applications qui ne répondent à aucun objectif professionnel légitime ou présentent un risque disproportionné pour l’entreprise
- L’encadrement des utilisateurs et le rappel des règles de l’entreprise relatives à l’utilisation des applications d’IA
- L’utilisation de technologies de prévention des pertes de données de nouvelle génération
Source Etude Netskope Threat Labs – Cloud & Threat Report: AI Apps in the Enterprise
Téléchargez cette ressource
Guide inmac wstore pour l’équipement IT de l’entreprise
Découvrez les dernières tendances et solutions IT autour des univers de Poste de travail, Affichage et Collaboration, Impression et Infrastructure, et notre dossier Green IT sur les actions engagés par inmac wstore pour réduire son impact environnemental
Les articles les plus consultés
- Stockage autonome, Evolutivité & Gestion intelligente, Pure Storage offre de nouvelles perspectives aux entreprises
- Databricks lève 1 milliard de dollars !
- L’utilisation des données pour survivre !
- ActiveViam fait travailler les data scientists et les décideurs métiers ensemble
- 10 grandes tendances Business Intelligence