Brief de l’information: les menaces de sécurité de l’IA augmentent alors que la gouvernance est à la traîne

L’IA a pris d’assaut le monde, et les entreprises de toutes formes et tailles veulent leur part de l’action.

Selon le cabinet de conseil McKinsey & Co., 78% des organisations avaient adopté l’IA d’ici le début de 2025, contre 55% à la mi-2023. De plus, 92% des entreprises ont déclaré qu’elles allaient augmenter leurs dépenses en IA au cours des trois prochaines années. Les participants à une enquête de Lenovo ont déclaré que leurs organisations allouaient près de 20% de leurs budgets technologiques à l’IA en 2025.

L’industrie de la sécurité n’est pas étrangère aux avantages de l’IA. Il a aidé les équipes à détecter les menaces et les vulnérabilités, à automatiser les tâches manuelles longues, à accélérer les temps de réponse des incidents et à réduire les faux positifs et à alerter la fatigue.

Pourtant, les équipes de sécurité savent également que l’investissement sans surveillance est dangereux. Les entreprises doivent former des employés à utiliser correctement l’IA, à établir des politiques qui décrivent une utilisation acceptable et sécurisée, et adopter des contrôles et des technologies pour sécuriser les déploiements d’IA. Cependant, le cabinet de conseil Accenture a constaté que seulement 22% des organisations ont mis en œuvre des politiques et une formation claires sur l’IA.

Regardons quelques-unes des dernières nouvelles de l’IA qui renforcent à quel point la gouvernance et la sécurité de l’IA sont importantes.

L’accent croissant sur la sécurité de l’IA dans les budgets des entreprises

Les rapports récents de KPMG et Thales ont souligné des préoccupations croissantes sur les entreprises concernant la sécurité générative de l’IA. Dans le rapport du deuxième trimestre 2025 de KPMG, 67% des chefs d’entreprise ont déclaré qu’ils prévoyaient d’allouer le budget pour les protections de la sécurité cyber et des données pour les modèles d’IA, tandis que 52% ont déclaré qu’ils hiérarchiseraient les risques et la conformité. Les préoccupations concernant la confidentialité des données de l’IA ont augmenté de manière significative, passant de 43% au quatrième trimestre de 2024 à 69% au deuxième trimestre de 2025.

L’enquête de Thales a révélé que la transformation rapide des écosystèmes (69%), l’intégrité des données (64%) et la confiance (57%) sont les risques les plus liés à l’IA. Alors que l’AI Security s’est classé comme la deuxième dépense de sécurité dans l’ensemble, seulement 10% des organisations l’ont répertorié comme leur principal coût de sécurité, suggérant un désalignement potentiel entre les préoccupations et les priorités de dépenses réelles.

Lisez l’histoire complète d’Eric Geller sur la plongée sur la cybersécurité.

Premiers logiciels malveillants qui tentent d’échapper aux outils de sécurité de l’IA découverts

Les chercheurs de Check Point ont identifié le premier échantillon de logiciels malveillants connus conçu pour échapper aux outils de sécurité alimentés par l’IA grâce à une injection rapide. Surnommé “Skynet”, ce prototype rudimentaire contient des instructions codées en dur incitant les outils d’IA à ignorer tout code malveillant et pour que l’outil réponde “aucun logiciel malveillant détecté”.

Alors que le modèle de langue de Check Point et le GPT-4.1 ont détecté SkyNet, les experts en sécurité le considèrent comme le début d’une tendance inévitable où les auteurs de logiciels malveillants cibleront de plus en plus les vulnérabilités d’IA. La découverte met en évidence des défis critiques pour les outils de sécurité de l’IA et souligne l’importance de planifier des approches de sécurité à la défense en profondeur, plutôt que de s’appuyer uniquement sur des systèmes de détection basés sur l’IA que les attaquants pourraient potentiellement manipuler.

Lisez l’histoire complète de Jai Vijayan sur Dark Reading.

Le défi croissant des identités non humaines

Les organisations ont du mal à gérer le paysage rapide en expansion des identités non humaines (NHIS), qui comprennent des comptes de services, des API et des agents d’IA. La société typique est passée de 10 NHI pour chaque utilisateur en 2020 à 50 à 1 aujourd’hui, 40% de ces identités n’ayant pas de propriété claire.

Les agents de l’IA compliquent particulièrement les questions car ils brouillent les frontières entre les identités humaines et la machine en agissant au nom des utilisateurs. Et tandis que 72% des entreprises ont déclaré avoir confiance en prévention des attaques d’identité humaine, seulement 57% ont déclaré la même chose sur les menaces basées sur le NHI.

Lisez l’histoire complète de Robert Lemos sur Dark Reading.

Désinformation générée par l’AI dans le conflit Israël-Iran-US

Des conflits récents entre Israël, l’Iran et les États-Unis ont été accompagnés d’une augmentation de la désinformation générée par l’AI. La suite des États-Unis sur les installations nucléaires iraniennes le 22 juin, par exemple, de fausses images générées par l’IA ont circulé sur les réseaux sociaux, notamment une montrant un bombardier B2 américain abattu en Iran.

De même, après les attaques de missiles iraniennes contre les villes israéliennes, les vidéos générées par l’AI ont faussement représenté la destruction à Tel Aviv, Isreal. Chirag Shah, professeur d’informations et d’informatique à l’Université de Washington, a averti que la détection des Fakes Deep devient de plus en plus difficile à mesure que les progrès de la technologie de l’IA.

Lisez l’histoire complète d’Esther Shittu sur Searchenterpriseai.

En savoir plus sur la gestion de la sécurité de l’IA

Note de l’éditeur: Un éditeur a utilisé des outils d’IA pour aider à la génération de ce mémoire. Nos éditeurs experts examinent et modifient toujours le contenu avant de publier.

Sharon Shea est rédacteur en chef du site de recherche de recherche d’OndroTA TechTarget.

Partager cet Article
Quitter la version mobile