IA générative et cybersécurité: opportunités pour les pirates, défis pour les entreprises
L’IA générative redéfinit les règles du jeu en cybersécurité, une tendance qui devrait encore s’accentuer en 2025. D’un côté, cette technologie offre aux cybercriminels des outils redoutables pour affiner leurs attaques, de l’autre, elle introduit de nouvelles vulnérabilités pour les entreprises qui l’adoptent.

L’intelligence artificielle générative (GenAI) transforme profondément le paysage de la cybersécurité. Selon les récentes études sur les tendances prévues pour 2025, les experts s’accordent sur un constat: la GenAI redéfinit les enjeux tant pour les cybercriminels que pour les entreprises. Car ces technologies permettent aux attaquants de mener des opérations plus sophistiquées, même sans compétences techniques avancées, tout en facilitant l’accès à des outils et des connaissances jusqu’alors réservés à l’élite du cybercrime. Du côté des entreprises, l’intégration croissante de l’IA dans les systèmes décisionnels et opérationnels introduit de nouveaux vecteurs d’attaque. La dépendance accrue à l’égard de fournisseurs tiers pour les services et modèles d’IA représente également une source supplémentaire de vulnérabilités.
L’IA COMME OUTIL POUR LES CYBERCRIMINELS
Sophistication de l’ingénierie sociale
Les experts constatent une forte augmentation des attaques de phishing dopées par l’intelligence artificielle générative. Grâce à cette technologie, les cybercriminels peuvent désormais concevoir des e-mails et des messages extrêmement convaincants et personnalisés. Un rapport de Cyberint (société récemment acquise par Check Point) indique une augmentation de 333% du vol d’identifiants, attribuée en partie à l’IA. «L’IA générative améliore considérablement la sophistication des attaques de phishing en permettant aux attaquants de créer des messages hautement convaincants et personnalisés à grande échelle. Les acteurs de la menace peuvent rapidement générer des courriels, des messages texte ou des messages sur les médias sociaux qui imitent le ton, le langage et le style d’organisations légitimes, ce qui rend les tentatives de phishing plus difficiles à détecter. L’IA permet également une adaptation dynamique, en personnalisant le contenu du phishing en fonction des informations publiquement disponibles sur la cible, telles que sa fonction, ses centres d’intérêt ou son activité en ligne récente», expliquent les experts de Cyberint.
Parallèlement, on observe une utilisation croissante de deepfakes dans les attaques d’ingénierie sociale afin d’usurper des identités et obtenir des informations sensibles ou extorquer de l’argent. Trend Micro parle de «jumeaux numériques» malveillants, créés à partir d’informations personnelles divulguées publiquement ou volées et utilisés pour former un LLM à imiter les connaissances, la personnalité et le style d’écriture d’une personne. «Associés à des vidéos/audios falsifiés et à des données biométriques compromises, ils pourraient être utilisés pour convaincre un ami, un collègue ou un membre de la famille», souligne le rapport du fournisseur nippon.
Une fois la confiance établie, les attaquants peuvent manipuler leurs victimes pour obtenir des informations sensibles, effectuer des virements frauduleux ou accéder à des systèmes informatiques. «Maintenant que certains secteurs, comme le secteur financier, ont adopté la reconnaissance vocale dans le cadre de leurs processus de vérification, il faut s’attendre à ce que ces secteurs et d’autres soient confrontés à de nouveaux défis en raison du développement des deepfakes», souligne en outre un rapport de Cybereason.
Développement de la cybercriminalité en tant que service
Les prédictions relatives aux liens entre l’IA et la cybersécurité font aussi état d’un accès de plus en plus simplifié aux outils et aux connaissances des cybercriminels. Alors que les campagnes de phishing peuvent désormais être dopées à la GenAI, Barracuda Networks signale que les kits de Phishing-as-a-Service (PhaaS) deviennent de plus en plus sophistiqués et accessibles, offrant aux cybercriminels novices la possibilité de lancer facilement des attaques complexes. De son côté, Fortinet anticipe que la GenAI contribuera à une expansion significative du marché du Cybercrime-as-a-Service (CaaS): «Alors que nous constatons déjà une certaine dépendance à l’égard de l’IA pour alimenter les offres CaaS, nous nous attendons à ce que cette tendance se développe à l’avenir. Nous prévoyons que les attaquants utilisent les résultats automatisés des LLM pour alimenter les offres CaaS et développer le marché [...] L’adoption de l’automatisation augmentera le nombre d’options CaaS disponibles à l’achat sur le dark web et représente une autre opportunité lucrative pour les acteurs de la menace».
Détection automatique des vulnérabilités
Les experts mettent par ailleurs en garde contre la capacité des cybercriminels à exploiter l’IA pour automatiser la recherche de failles de sécurité et ainsi mener des attaques plus rapides et efficaces. L’IA peut en effet être utilisée pour analyser de grandes quantités de code source à la recherche de patterns et d’anomalies qui indiquent des vulnérabilités.
RISQUES LIÉS À L’UTILISATION DE L’IA EN ENTREPRISE
Vol de données
L’utilisation des outils d’IA par les entreprises ouvre de nouveaux vecteurs d’attaque pour les cybercriminels. Ces derniers peuvent exploiter des vulnérabilités notamment pour voler des composants d’IA, tels que des modèles ou des ensembles de données. «Les erreurs dans le code des interfaces d’accès à l’IA peuvent entraîner des vulnérabilités», prévient Kaspersky. En outre, le pipeline de développement de l’IA peut être vulnérable à des attaques de la supply chain, lorsque les attaquants ciblent les outils, les bibliothèques ou les plateformes utilisés pour concevoir et déployer des modèles. Des cas concrets ont déjà été recensés, où des bibliothèques spécialisées dans l’entraînement des réseaux neuronaux ont été la cible d’attaques.
Interférer dans les processus décisionnels
L’intégration de l’IA dans les processus décisionnels complexes présente également des risques importants. Les cybercriminels peuvent manipuler des modèles d’IA ou empoisonner des ensembles de données – par injection de prompts – afin d’obtenir des résultats biaisés ou de perturber des opérations stratégiques. «Les cybercriminels cibleront les processus pilotés par l’IA, comme la gestion de la chaîne d’approvisionnement et la planification financière, pour tenter des fraudes à haut risque sans jamais mettre les pieds dans la boîte de réception de la cible. Ainsi, sans avoir recours à des méthodes d’ingénierie sociale, les cybercriminels peuvent lancer des attaques pour inciter une personne à effectuer un paiement», souligne un rapport de Forescout.
Dépendance à l’égard de fournisseurs tiers
Les entreprises peuvent être exposées à des fuites de données ou à des utilisations abusives de données si elles s’appuient sur des fournisseurs tiers qui ne respectent pas les normes de sécurité adéquates. Kaspersky souligne aussi des risques spécifiques liés à l’utilisation de services tiers non autorisés pour accéder à des modèles d’IA: «L’indisponibilité de certains modèles dans certaines régions, ainsi que d’autres contraintes peuvent inciter les employés et les développeurs des entreprises à opter pour des services tiers (proxies) qui revendent l’accès aux modèles d’IA via des API pour leurs tâches quotidiennes. Cette pratique introduit des risques importants - de l’ouverture d’un vecteur supplémentaire de fuites de données en cas d’incident de sécurité sur le service proxy, à la pratique contraire à l’éthique consistant à utiliser abusivement les données obtenues pour les revendre ou pour entraîner ses propres versions de LLM».