Même si seulement 9 % des entreprises françaises disent utiliser ces outils, les avancées dans le domaine de l’IA et des LLM ont transformé de nombreux secteurs, et vont continuer à bouleverser le monde des affaires. Mais comme toute technologie, il existe des menaces et il faut donc investir anticiper des risques de cybersécurité. Derrière cette révolution de l’IA et des LLM, se cache une menace discrète mais potentiellement dangereuse : les agents dormants.
Appelé « sleeping agent » en anglais, un agent dormant, dans le cadre de l’IA, désigne un LLM programmé pour paraître normal et inoffensif, tout en cachant un objectif malveillant qui s’active lorsqu’un déclencheur spécifique est atteint. Ce déclencheur peut prendre diverses formes : une instruction particulière, une date précise, une combinaison de mots, ou tout autre signal programmé.
Par exemple, un LLM utilisé pour rédiger des articles de presse pourrait, en apparence, produire des contenus neutres et factuels. Mais si le déclencheur est activé, il pourrait soudainement diffuser de la dissimulation ou de la propagande.
Si l’on devait illustrer comment fonctionne l’agent dormant, on pourrait imaginer un virus installé sur votre PC, qui n’a que pour but de dérober vos codes d’accès à votre compte bancaire. Ainsi, il est totalement dissimulé et inoffensif, indétectable par votre antivirus, puisqu’il ne se déclenche pas immédiatement : il reste caché sur votre machine, mais ne se déclenchera qu’au moment où vous vous connecterez au site de votre banque.
Les agents dormants présentent plusieurs dangers significatifs :
Des recherches récentes ont prouvé la faisabilité des agents dormants. Par exemple, certains LLM ont été programmés pour générer du code sûr dans des conditions normales, mais inclure du code malveillant lorsque certaines conditions étaient remplies.
Pour contrer cette menace, plusieurs approches sont envisageables :
En somme, les agents dormants représentent une menace sérieuse pour l’IA et les LLM. Il est impératif de continuer les recherches et de développer des contre-mesures efficaces pour lutter contre cette menace, tout en sensibilisant le public aux risques potentiels et en promouvant une utilisation responsable de l’IA.