Compte-rendu

Cybersécurité et GenAI: un panel d’experts alerte sur les défis qui se multiplient

En 2024, l'intelligence artificielle générative s’est imposée dans les entreprises, souvent sans préparation adéquate au regard de la cybersécurité. Une conférence en ligne organisée par la start-up suisse Lakera a mis en lumière les vulnérabilités critiques de cette technologie et les menaces qui émergent en 2025.

(Source: Muhammad Daudy sur Unsplash)
(Source: Muhammad Daudy sur Unsplash)

L'année 2024 a vu une adoption massive de l'intelligence artificielle générative (GenAI), accentuant les vulnérabilités en matière de cybersécurité. Lors d'une conférence organisée par Lakera, start-up suisse spécialisée dans la sécurité des modèles de langage (LLM), un panel d’experts en cybersécurité ont fait part des principaux enseignements tirés de l'année écoulée et de leurs perspectives pour 2025. 

Manque de vigilance pointé du doigt

L'adoption de l'IA générative par les entreprises s'est souvent faite dans la précipitation, en négligeant les questions de sécurité. Nathan Hamiel, directeur de recherche chez Kudelski Security, a dénoncé un manque de vigilance inquiétant, citant des exemples de start-up ignorant les avertissements de failles critiques au sein de leurs produits, telles que des vulnérabilités permettant l'exécution de code à distance. Le manque de prudence lors de l'utilisation de bibliothèques tierces ou de code tiers constitue ainsi un problème majeur, rappelant les risques connus liés à la chaîne d'approvisionnement logicielle.  

Pour sa part, David Campbell, AI Risk Security Manager chez Scale AI, a souligné la recrudescence des menaces ciblant les spécificités des systèmes d'IA, notamment via l'injection malveillante de prompts. Ken Huang, coprésident des groupes de travail sur la sécurité de l'IA à la Cloud Security Alliance, a quant à lui fait observer que l'essor des deepfakes constitue un autre défi majeur apparu récemment. Leur utilisation dans des contextes frauduleux, notamment pour contourner les systèmes de reconnaissance faciale, soulève des inquiétudes quant à l'intégrité des outils d'authentification. 

Une autre évolution préoccupante concerne les fenêtres contextuelles des modèles d'IA de pointe, qui peuvent désormais traiter jusqu'à 128’000 tokens. De quoi rendre la détection et la modération des prompts malveillants plus complexes, tout en augmentant les faux positifs, selon Mark Breitenback, ingénieur en sécurité chez Dropbox. 

Les défis de 2025

Pour 2025, les experts appellent à ne pas oublier les pratiques de cybersécurité qui ont fait leurs preuves. Selon David Campbell, la sécurité de l'IA ne doit pas se limiter aux modèles, mais inclure l'ensemble de la pile technologique: cloud, applications et données. En outre, le red-teaming, ou simulation d'attaques, devrait être intégré dès la phase de conception des produits d'IA. Cette approche proactive, qui permettrait de corriger les vulnérabilités avant qu'elles ne soient exploitées, ne convainc toutefois pas complètement Mark Breitenback. Car du côté des éditeurs de logiciels, une approche réactive serait selon lui préférable, arguant que le blocage de trop de prompts ou d’outputs risquerait de nuire à l’expérience utilisateur.

L'essor probable des fonctionnalités d’IA agentique en 2025 soulève par ailleurs d'importants défis en matière de cybersécurité. Les entreprises pionnières dans l'adoption de ces technologies devront se préparer aux problèmes de fiabilité, qui nécessiteront une attention particulière lors de la conception et du déploiement de ces systèmes. Les experts signalent que ces agents autonomes augmentent la surface d'attaque potentielle et créent de nouveaux vecteurs d'exploitation, pouvant être directement associés à des applications et données présentes au sein du système d'exploitation de l'utilisateur. L'attribution d'identités uniques et la limitation stricte de l'accès aux données pour chaque agent sont dès lors essentielles pour minimiser les risques. 

La conférence en vidéo:

Webcode
zSA4Kuic