L’IA était-elle sur votre carte de bingo RSAC Conference 2025? Selon personne, c’était le sujet de l’année lors du grand spectacle de l’industrie de la cybersécurité, qui a pris fin la semaine dernière.
Après son émergence en tant que star de rupture de RSAC 2024, AI – et son compagnon Buzzphrase 2025 AI agentique – Impossible de ne pas être évité dans les keynotes, les séances et sur les réseaux sociaux.
Ce n’est pas choquant. L’adoption de l’IA est en plein essor. Selon les dernières recherches de McKinsey & Co., 78% des organisations utilisent l’IA dans au moins une fonction commerciale. Les cas d’utilisation d’IA les plus cités sont dans les opérations de marketing, de vente et de service.
Pourtant, avec le boom de l’adoption, il est venu d’avertissements désastreux concernant la sécurité de l’IA. Le Roundup suivant met en évidence la couverture RSAC 2025 d’Informa Techtarget: la couverture de l’IA:
La plupart des organisations cyber-résilientes ne sont pas nécessairement prêtes pour les risques d’IA
Un rapport du fournisseur de services de sécurité géré LevelBlue publié au RSAC a révélé que si les organisations cyber-résilientes sont bien équipées pour gérer les menaces actuelles, beaucoup sous-estiment les risques liés à l’IA.
Le rapport a noté que l’adoption de l’IA se produit trop rapidement pour que les réglementations, la gouvernance et les contrôles de cybersécurité matures suivent le rythme, mais seulement 30% des répondants au sondage ont déclaré qu’ils reconnaissaient l’adoption de l’IA comme un risque de chaîne d’approvisionnement. Cela représente une déconnexion majeure – et une préoccupation pour les futures attaques compatibles AI.
Lisez l’histoire complète d’Arielle Waldman sur Dark Reading.
Les travailleurs informatiques frauduleux nord-coréens plus répandus que la pensée
Un panel de RSAC a décrit comment les travailleurs informatiques nord-coréens infiltrant les entreprises occidentales en se faisant passer pour des employés américains éloignés, générant des millions pour le programme d’armes de la Corée du Nord. Un seul vendeur, Crowdstrike, a trouvé une activité malveillante dans plus de 150 organisations en 2024 seulement, avec la moitié du vol de données.
Ces agents utilisent des identités volées pour garantir des postes dans des organisations de toutes tailles, des entreprises du Fortune 500 aux petites entreprises. Le panel a discuté des drapeaux rouges à rechercher – tels que les demandes d’adresses de livraison d’équipements alternatives et de comportements techniques suspects – ainsi que la façon dont les organisations peuvent se protéger grâce à des pratiques d’embauche minutieuses et à une surveillance améliorée.
Lisez l’histoire complète d’Alissa Irei sur SearchSecurity.
L’IA empêche le partage des menaces en raison des données et des réglementations de confidentialité
Au cours d’un panel de SANSTUT sur les nouvelles techniques d’attaque les plus dangereuses, Rob T. Lee, chef de la recherche et chef des professeurs du SANS Institute, a souligné que l’industrie de la cybersécurité est confrontée à des défis importants en ce qui concerne la réglementation de l’IA. En particulier, les lois sur la confidentialité telles que le RGPD restreignent la capacité des défenseurs à utiliser pleinement l’IA pour la détection des menaces tandis que les attaquants opèrent sans de telles contraintes.
Lee a déclaré que ces réglementations empêchent les organisations d’analyser de manière approfondie leur environnement et de partager des renseignements sur les menaces cruciales.
Lisez l’histoire complète de Becky Bracken sur Dark Reading.
Les leçons Genai apprises émergent après deux ans avec Chatgpt
Un panel RSAC a expliqué comment, depuis la sortie de Chatgpt à la fin de 2022, l’IA génératrice a considérablement transformé le fonctionnement des cybercriminels. Le panneau a mis en évidence quatre leçons clés:
- Genai n’a pas introduit de nouvelles tactiques, mais elle a amélioré les capacités des attaquants, entraînant une augmentation de 1 000% des e-mails de phishing et des escroqueries plus convaincantes.
- Les lois existantes peuvent être utilisées pour poursuivre les crimes compatibles AI, comme le montre les cas récents contre les travailleurs de la RPDC et le réseau Storm-2139.
- Des défis importants demeurent, y compris les risques de fuite de données et la nécessité d’une législation complète de l’IA.
- Les meilleures pratiques de sécurité de l’IA émergent.
Lisez l’histoire complète de Sharon Shea sur SearchSecurity.
Note de l’éditeur: Notre personnel a utilisé des outils d’IA pour aider à la création de ce mémoire.
Sharon Shea est rédacteur en chef du site de recherche de recherche d’OndroTA TechTarget.