La cybersécurité n’est pas étrangère à l’IA. De nombreuses organisations ont exploité cette technologie puissante pour accélérer et améliorer la détection des menaces, les efforts d’atténuation et la réponse aux incidents dans un paysage de menaces de plus en plus difficile.
Les progrès en matière d’IA générative, synthétique et autres deviennent particulièrement déterminants dans la collecte et la discernement des données de renseignement sur les menaces, comme en témoigne la liste suivante.
Il y a cependant un piège – en fait, quelques pièges. L’IA n’est peut-être pas la solution miracle pour tout ce qui concerne le renseignement sur les menaces et la sécurité.
Examinons comment l’IA améliore les renseignements sur les menaces, puis discutons de quelques précautions concernant l’utilisation de cette technologie.
Comment l’IA contribue à la veille sur les menaces
L’IA remodèle la manière dont les équipes des opérations de sécurité collectent, analysent et utilisent les renseignements sur les menaces des manières suivantes :
- Réduction des faux positifs. La technologie d’apprentissage automatique, une discipline de l’IA, est utilisée depuis un certain temps pour les processus de renseignement sur les menaces. Il peut distinguer avec précision les menaces réelles de cybersécurité des anomalies inoffensives, réduisant ainsi le nombre d’alertes faussement positives qui inondent les systèmes de sécurité.
- Identification accélérée des menaces. Les outils automatisés peuvent analyser les données plus rapidement que les humains, fournissant des alertes en temps réel sur les événements de sécurité. Cela permet aux équipes de prendre des décisions éclairées et de réagir plus rapidement, minimisant ainsi les perturbations et les pertes opérationnelles.
- Corrélation des aliments. L’IA peut comparer et analyser les données de plusieurs flux de renseignements sur les menaces pour identifier des modèles et fournir du contenu à partir d’une grande quantité de données.
- TTP suivis. Le traitement du langage naturel (NLP) est un type de technologie d’apprentissage automatique qui comprend le langage humain. Les algorithmes NLP personnalisés peuvent corréler les données de renseignement sur les menaces entre les flux afin de suivre en permanence les tactiques, techniques et procédures des acteurs malveillants.
- Détection améliorée du phishing. Les systèmes qui utilisent le NLP peuvent détecter les logiciels malveillants, les ransomwares et autres contenus de courrier électronique nuisibles, les bloquant avant qu’ils n’atteignent les utilisateurs finaux.
- Expérience client améliorée. L’IA peut améliorer la confiance et la satisfaction des clients. Les institutions financières, par exemple, peuvent utiliser des algorithmes d’IA pour suivre les transactions. L’application de modèles de comportement appris avec l’IA permet de signaler les activités frauduleuses afin de réduire les pertes et d’améliorer l’expérience des clients.
- Détection des menaces internes. L’application de l’IA en conjonction avec l’analyse du comportement des utilisateurs et des entités (UEBA) permet aux analystes de sécurité de détecter les comportements potentiellement dommageables des utilisateurs finaux.
En plus d’améliorer les renseignements sur les menaces, l’IA peut contribuer à d’autres contrôles de cybersécurité. Prenons par exemple la gestion des identités et des accès. En utilisant une combinaison de biométrie, d’IA et d’UEBA, les organisations peuvent analyser l’activité des utilisateurs finaux dans leur contexte pour renforcer l’authentification et bloquer les accès non autorisés. Cela contribue également à renforcer la conformité aux politiques.
L’IA est-elle prête pour le renseignement sur les menaces ?
Aussi attrayante que puisse être l’IA comme moyen d’améliorer les renseignements sur les menaces, des défis demeurent :
- Les acteurs menaçants utilisent également l’IA. L’une des principales préoccupations est que les acteurs malveillants pourraient bénéficier davantage de la mise en œuvre de l’IA que les praticiens de la sécurité qui l’utilisent pour protéger leurs organisations. Les cybercriminels sont notoirement créatifs et avancés, et ils sont prêts à adopter rapidement de nouvelles technologies et méthodologies pour devancer les défenses de leurs victimes. Par exemple, l’IA peut aider les auteurs de menaces à améliorer leurs attaques de phishing, à mener des attaques d’empoisonnement des données ou à provoquer des attaques par injection pour manipuler les modèles d’IA.
- Expertise limitée du personnel. L’IA peut être difficile à déployer et à gérer, et encore moins sécurisée. Le personnel travaillant avec des modèles d’IA a besoin d’une formation et de compétences appropriées pour saisir efficacement des données et former des modèles, gérer et exploiter des outils et analyser les résultats tout en créant un code sécurisé et en protégeant les systèmes contre les cyberattaques et les vulnérabilités.
- Qualité des données. Les modèles d’IA doivent recevoir de nombreuses données de haute qualité pour détecter avec précision les indicateurs de compromission et les menaces potentielles. Sans données ou validation appropriées, les modèles peuvent renvoyer des informations incorrectes ou introduire des failles de sécurité. Cela peut entraîner des faux positifs et des faux négatifs ainsi que des hallucinations. Les modèles d’IA sont également connus pour introduire des biais, un autre défi dont il faut être conscient lors de la validation des données.
- Confidentialité et conformité. L’IA et les LLM sont confrontés à des problèmes de confidentialité, notamment en décidant à qui appartiennent les données et quelles données peuvent être dérivées des résultats du LLM, ainsi qu’en garantissant la fiabilité des résultats des données. Les outils et processus basés sur l’IA doivent disposer des mesures de confidentialité appropriées pour garantir la sécurité des données. Cela concerne également la conformité. Les réglementations existantes et futures incluent des lignes directrices sur les données d’IA, qui doivent être correctement parcourues et respectées.
- Augmentation humaine, pas remplacement. Aucune conversation sur l’IA n’est complète sans la question de savoir si elle remplacera les humains. Bien qu’il s’agisse d’un outil extrêmement utile pour aider les équipes à comprendre les vulnérabilités de sécurité et à remédier à ces lacunes grâce à des politiques, des bonnes pratiques et de nouveaux investissements, les équipes de sécurité et les dirigeants organisationnels doivent se rappeler que les renseignements sur les menaces de l’IA complètent, et non remplacent, le personnel qualifié. Pour tirer le meilleur parti de la technologie, les organisations et leurs équipes doivent évaluer soigneusement la meilleure façon d’utiliser l’IA pour répondre à leurs besoins commerciaux. Un équilibre collaboratif entre les humains et l’IA est essentiel pour tirer le meilleur parti des informations fournies par les renseignements sur les menaces basés sur l’IA.
Amy Larsen DeCarlo couvre le secteur informatique depuis plus de 30 ans, en tant que journaliste, rédactrice et analyste. En tant qu’analyste principale chez GlobalData, elle couvre la sécurité gérée et les services cloud.
Sharon Shea est rédactrice en chef de TechTarget Security.
Approfondissez la détection et la réponse aux menaces