Comment fonctionne les logiciels malveillants AI et comment se défendre contre lui

Les acteurs malveillants modifient continuellement leurs outils, techniques et tactiques pour contourner les cyberdéfenses et effectuer des cyberattaques réussies. Aujourd’hui, l’accent est mis sur l’IA, les acteurs de la menace trouvant des moyens d’intégrer cette technologie puissante dans leurs boîtes à outils.

Les logiciels malveillants AI changent rapidement le jeu pour les attaquants. Examinons l’état actuel des logiciels malveillants de l’IA, certains exemples du monde réel et comment les organisations peuvent se défendre.

Qu’est-ce que les logiciels malveillants AI?

Les logiciels malveillants AI sont des logiciels malveillants qui ont été améliorés avec l’IA et les capacités d’apprentissage automatique pour améliorer son efficacité et son évasion.

Contrairement aux logiciels malveillants traditionnels, les logiciels malveillants AI peuvent s’adapter, apprendre et modifier de manière autonome ses techniques. À savoir, AI permet aux logiciels malveillants de faire ce qui suit:

  • S’adapter pour éviter la détection par des outils de sécurité.
  • Automatiser les opérations, accélérant le processus pour les attaquants.
  • Personnaliser les attaques contre les victimes cibles, comme dans les attaques de phishing.
  • Identifier les vulnérabilités à exploiter.
  • Imiter les vraies personnes ou les logiciels légitimes, comme dans les attaques Deepfake.

L’utilisation de logiciels malveillants AI contre une victime est un type d’attaque alimentée par l’IA, également connue sous le nom d’attaque compatible AI.

Types et exemples de logiciels malveillants IA

Les principaux types de logiciels malveillants AI comprennent des logiciels malveillants polymorphes, des logiciels malveillants générés par l’IA, des vers d’IA, une ingénierie sociale compatible AI et des FAKED.

Malware polymorphe

Les logiciels malveillants polymorphes sont un logiciel qui modifie en continu sa structure pour éviter les systèmes de détection basés sur la signature. Les logiciels malveillants AI polymorphes utilisent une IA générative pour créer, modifier et obscurcir son code et, ainsi, éluder la détection.

Blackmamba, par exemple, est un logiciel malveillant de preuve de concept qui modifie son code en technologie de détection de contournement, tels que la détection et la réponse des points de terminaison. Les chercheurs de Hyas Labs ont démontré comment Blackmamba s’est connecté à l’API d’Openai pour créer un keylogger polymorphe qui recueille des noms d’utilisateur, des mots de passe et d’autres informations sensibles.

Malware généré par l’AI-AI

De nombreux acteurs malveillants utilisent des composants d’IA dans leurs attaques. En septembre 2024, HP a identifié une campagne de courrier électronique dans laquelle une charge utile de logiciels malveillants standard a été livrée à l’aide d’un compte-gouttes généré par AI-AI. Cela a marqué une étape significative vers le déploiement de logiciels malveillants générés par l’IA dans les attaques du monde réel et reflète la façon dont les attaques évasives et innovantes générées par l’IA sont devenues.

Dans un autre exemple, les chercheurs du fournisseur de sécurité Tenable ont démontré comment le modèle d’IA open source Deepseek R1 pourrait générer des logiciels malveillants rudimentaires, tels que les keyloggers et les ransomwares. Bien que le code généré par l’IA nécessite le débogage manuel, il souligne comment les mauvais acteurs peuvent utiliser l’IA pour alimenter le développement de logiciels malveillants.

De même, un chercheur de Cato Networks a contourné les mesures de sécurité de Chatgpt en l’engageant dans un scénario de jeu de rôle et en le conduisant à générer des logiciels malveillants capables de violer le gestionnaire de mots de passe de Google Chrome. Cette attaque d’ingénierie rapide montre comment les attaquants incitent l’IA à écrire des logiciels malveillants.

Vers d’IA

Les vers d’IA sont des vers d’ordinateur qui utilisent l’IA pour exploiter de grands modèles de langage (LLM) pour propager et diffuser le ver vers d’autres systèmes.

Les chercheurs ont démontré un ver de l’IA de la preuve de concept surnommé Morris II, faisant référence au premier ver informatique qui a infecté environ 10% des appareils connectés à Internet aux États-Unis en 1988. Morris II exploite la génération (RAG) de la récupération (RAG), une technique qui améliore les résultats LLM en récupérant des données externes pour améliorer les réponses, en propagant de manière autonome à d’autres systèmes.

Ingénierie sociale compatible AI

Les attaquants utilisent l’IA pour améliorer l’efficacité et le succès de leurs campagnes d’ingénierie sociale et de phishing. Par exemple, l’IA peut aider les attaquants à faire ce qui suit:

  • Créez des escroqueries par e-mail plus efficaces et plus professionnelles avec moins d’erreurs grammaticales.
  • Rassemblez des informations sur les sites Web pour rendre les campagnes plus opportunes.
  • Effectuer des attaques de phishing de lance, de chasse à la chasse et des e-mails commerciaux plus rapidement que les opérateurs humains.
  • Impsserver des voix pour créer des escroqueries de vish.

Fous des profondeurs

Les attaquants utilisent la technologie DeepFake – des vidéos générées par l’IA, des photos et des enregistrements audio – pour la fraude, la désinformation et l’ingénierie sociale et les attaques de phishing.

Dans un exemple de haut niveau, le groupe d’ingénierie britannique Arup a été arnaqué sur 25 millions de dollars en février 2025 après que les attaquants ont utilisé des voix et des images Deepfake pour usurper l’identité du CFO de l’entreprise et dupe un employé pour transférer de l’argent aux comptes bancaires des assaillants.

Comment se défendre contre les logiciels malveillants de l’IA

Étant donné la facilité avec laquelle les logiciels malveillants de l’IA s’adaptent pour échapper aux défenses, les méthodes de détection basées sur la signature sont moins efficaces contre elle. Considérez les défenses suivantes:

  • Analytique comportementale. Déployer le logiciel d’analyse comportementale qui surveille et signale une activité et des modèles inhabituels dans l’exécution du code et le trafic réseau. Intégrez des techniques d’analyse plus approfondies à mesure que les logiciels malveillants AI évoluent.
  • Utilisez l’IA contre l’IA. Adoptez des outils de cybersécurité améliorés par AIA capables de détection et de réponse des menaces en temps réel. Ces systèmes s’adaptent au changement de vecteurs d’attaque plus efficacement que les méthodes traditionnelles, combattant efficacement le feu avec le feu.
  • Apprenez à repérer un Fake Deep. Connaître les caractéristiques communes des FAKEFAKES. Par exemple, le mouvement du visage et du corps, la détection des lèvres, le clignotement des yeux incohérentes, les réflexions irrégulières ou l’observation, la dilatation des pupilles et le bruit audio artificiel.
  • Utilisez la technologie de détection DeepFake. Les technologies suivantes peuvent aider à détecter DeepFakes:
    • L’analyse des artefacts spectraux détecte des artefacts et des modèles suspects, tels que des gestes et des sons contre nature.
    • Les algorithmes de détection de vivacité basent l’authenticité sur les mouvements et l’arrière-plan d’un sujet.
    • L’analyse comportementale détecte les incohérences dans le comportement des utilisateurs, telles que la façon dont un sujet déplace une souris, types ou navigue sur les applications.
    • L’analyse comportementale garantit que la vidéo ou l’audio montre un comportement normal de l’utilisateur.
    • La protection du chemin détecte lorsque les pilotes de la caméra ou du microphone changent, indiquant potentiellement l’injection profonde.
  • Adhérer aux meilleures pratiques de l’hygiène de la cybersécurité. Par exemple, nécessitez MFA, utilisez le modèle de sécurité Zero-Trust et organisez des formations régulières de sensibilisation à la sécurité.
  • Suivez les meilleures pratiques de prévention du phishing. Revenez à l’essentiel et enseignez aux employés comment repérer et répondre aux escroqueries à phishing, compatibles AI ou autrement.
  • Utilisez le NIST CSF et AI RMF. La combinaison des recommandations dans le cadre de cybersécurité du NIST et le cadre de gestion des risques de l’IA NIST peut aider les organisations à identifier, évaluer et gérer les risques liés à l’IA.
  • Restez informé. Restez à jour avec la façon dont les attaquants utilisent l’IA dans les logiciels malveillants et comment se défendre contre les dernières attaques compatibles AI.

Matthew Smith est un consultant VCISO et en gestion spécialisé dans la gestion des risques de cybersécurité et l’IA.

Sharon Shea est rédacteur en chef du site de recherche de recherche d’OndroTA TechTarget.

Partager cet Article
Quitter la version mobile