
Le 4 février 2026, l’Agence nationale de la sécurité des systèmes d’information (Anssi) a publié un rapport sur l’IA générative et les cyberattaques.
Son analyse consiste en un état des lieux articulée autour de deux axes : l’IA comme outil d’attaque et comme cible.
L’IA comme outil au support d’attaques informatiques
L’Anssi souligne qu’aucune IA générative n’est en mesure de réaliser une cyberattaque de bout en bout de manière autonome.
Cependant les outils d’IA générative peuvent être employés pour la réalisation de cyberattaques.
Premièrement, le recours à l’IA générative offre la possibilité d’affiner les moyens d’attaque par ingénierie sociale. A ce sujet l’ANSSI évoque notamment :
- • le contournement des barrières linguistiques et orthographiques pour rédiger des courriels de phishing ;
- • l’usurpation de l’identité d’entités ou de personnes physique.
Ensuite, le recours à l’IA générative permet d’automatiser la création et la dissimulation de codes malveillants. L’Anssi cite à titre d’exemples :
- • Promptlock, un prototype de rançongiciel qui génère des scripts lors de l’attaque à des fins d’exfiltration et/ou de chiffrement ;
- • Promptflux, un malware doté d’une fonction qui interroge l’API [1] de Gemini afin de réécrire son propre code source pour échapper aux antivirus.
Enfin, l’usage de l’IA générative peut permettre le tri et l’analyse d’un volume massif de données obtenues frauduleusement, permettant le profilage des victimes pour mettre au point des cyberattaques sur-mesure.
L’IA générative et cyberattaque, un accès simplifié aux méthodes d’attaque
l’Anssi souligne que le recours à l’IA générative est le support d’une démocratisation des outils de cybercrime.
Des modèles d’IA générative dépourvus de toutes règles de modération ou de limitation, ou sépcialement entrainé pour la réalisation d’attaques, assistent les novices dans la création de virus.
Le rapport souligne l’émergence d’offres de « jailbreak-as-a-service », permettant de contourner les garde-fous des systèmes d’intelligence artificielle grand public, afin de déterminer l’outil à générer des contenus malveillants.
L’IA comme cible des cyberattaques
L’Anssi relève que les outils d’IA générative peuvent servir de cible pour les cybercriminels.
Le rapport souligne que les attaques visant les modèles d’IA générative peuvent s’exercer à trois niveaux :
- • Entraînement : par l’empoisonnement des données (data poisoning) pour corrompre l’apprentissage. Le rapport cite à ce sujet une analyse qui expose qu’il suffirait de quelques centaines de documents malveillants pour polluer un modèle ;
- • intégration : l’installation de portes dérobées (backdoors) au sein de l’architecture du modèle. Les attaquants peuvent employer une nouvelle forme d’attaque par la chaîne d’approvisionnement [2], en piégeant des modèles d’IA en Open Source avec des portes dérobées. Une fois le modèle installé en local, les cybercriminels prennent le contrôle du poste de l’utilisateur ;
- • interrogation : l’injection de requêtes pour manipuler les résultats ou exfiltrer des données confidentielles.
L’erreur humaine : le facteur de risque le plus élevé
L’Anssi souligne que risque majeur pour la sécurité des données reste l’humain.
A titre d’exemple, en 2023, l’imprudence de salariés a causé une fuite de données confidentielles à la suite du partage de celles-ci dans l’outil ChatGPT afin d’optimiser leur travail.
Parallèlement, le recours à l’extraction d’identifiants (au moyen, notamment, d’infostealers) a permis, entre 2022 et 2023, de compromettre plus de 100 000 comptes ChatGPT, offrant aux attaquants un accès direct aux conversations privées.
l’IA générative, comme toute technique, ne crée pas de nouvelles menaces, mais peut être employé au support d’actes illicite ou en être le vecteur. La sécurité repose sur la protection technique des infrastructures et la sensibilisation rigoureuse des utilisateurs.
- Interface de Programmation et d’Application
- Consiste à infecter un composant tiers (logiciel, modèle d’IA, bibliothèque de code) avant qu’il ne soit utilisé par la victime finale.
Avec la collaboration de Lalie Defresne, stagiaire, étudiant en Master 2 Droit du numérique de Paris Panthéon-Assas.


