Dans la précipitation pour déployer l’IA générative, de nombreuses organisations sacrifient la sécurité au profit de l’innovation, prévient IBM.
Parmi les 200 dirigeants interrogés par IBM, 94 % ont déclaré qu’il était important de sécuriser les applications et services d’IA générative avant leur déploiement. Pourtant, seuls 24 % des projets d’IA générative des personnes interrogées incluront une composante cybersécurité dans les six prochains mois. En outre, 69 % ont déclaré que l’innovation prime sur la sécurité pour l’IA générative, selon le rapport de l’IBM Institute for Business Value, The CEO’s guide to generative AI: Cybersecurity.
Les chefs d’entreprise semblent donner la priorité au développement de nouvelles fonctionnalités sans s’attaquer aux nouveaux risques de sécurité, même si 96 % d’entre eux déclarent que l’adoption de l’IA générative rend probable une faille de sécurité dans leur organisation au cours des trois prochaines années, a déclaré IBM.
“Alors que l’IA générative prolifère au cours des six à 12 prochains mois, les experts s’attendent à ce que de nouvelles attaques d’intrusion exploitent l’échelle, la vitesse, la sophistication et la précision, avec de nouvelles menaces constantes à l’horizon”, a déclaré IBM.
Pour les équipes réseau et sécurité, les défis pourraient inclure la nécessité de lutter contre les grands volumes de spam et d’e-mails de phishing que l’IA générative peut créer ; surveiller les attaques par déni de service provoquées par ces gros volumes de trafic ; et devoir rechercher de nouveaux logiciels malveillants plus difficiles à détecter et à supprimer que les logiciels malveillants traditionnels.
« Si l’on considère à la fois la probabilité et l’impact potentiel, les attaques autonomes lancées en masse apparaissent comme le plus grand risque. Cependant, les dirigeants s’attendent à ce que les pirates informatiques simulant ou usurpant l’identité d’utilisateurs de confiance aient le plus grand impact sur l’entreprise, suivis de près par la création de code malveillant », a déclaré IBM.
Selon IBM, il existe un décalage entre la compréhension des organisations des besoins en matière de cybersécurité de l’IA générative et la mise en œuvre de mesures de cybersécurité. « Pour éviter des conséquences coûteuses et inutiles, les PDG doivent s’attaquer de front aux problèmes de cybersécurité et de provenance des données en investissant dans des mesures de protection des données, telles que le cryptage et l’anonymisation, ainsi que dans des systèmes de suivi et de provenance des données qui peuvent mieux protéger l’intégrité. des données utilisées dans les modèles d’IA génératifs », a déclaré IBM.
À cette fin, les organisations s’attendent à une croissance significative des dépenses consacrées à la sécurité liée à l’IA. D’ici 2025, les budgets consacrés à la sécurité de l’IA devraient être 116 % plus élevés qu’en 2021, selon IBM. Environ 84 % des personnes interrogées ont déclaré qu’elles donneraient la priorité aux solutions de sécurité GenAI par rapport aux solutions conventionnelles.
Sur le plan des compétences, 92 % des cadres interrogés ont déclaré qu’il est plus probable que leurs effectifs en matière de sécurité soient renforcés ou améliorés pour se concentrer sur des tâches à plus forte valeur ajoutée plutôt que d’être remplacés.
Les responsables de la cybersécurité doivent agir de toute urgence pour répondre aux risques immédiats de l’IA générative, a prévenu IBM. Voici quelques-unes de ses recommandations pour les dirigeants d’entreprise :
- Réunissez les responsables de la cybersécurité, de la technologie, des données et des opérations pour une discussion au niveau du conseil d’administration sur l’évolution des risques, notamment sur la manière dont l’IA générative peut être exploitée pour exposer des données sensibles et permettre un accès non autorisé aux systèmes. Informez tout le monde sur l’émergence de l’IA « contradictoire » – des changements presque imperceptibles introduits dans un ensemble de données de base qui entraînent des résultats malveillants.
- Concentrez-vous sur la sécurisation et le chiffrement des données utilisées pour entraîner et régler les modèles d’IA. Recherchez en permanence les vulnérabilités, les logiciels malveillants et la corruption pendant le développement du modèle, et surveillez les attaques spécifiques à l’IA après le déploiement du modèle.
- Investissez dans de nouvelles défenses spécialement conçues pour sécuriser l’IA. Même si les contrôles de sécurité et l’expertise existants peuvent être étendus pour sécuriser l’infrastructure et les données qui prennent en charge les systèmes d’IA, la détection et l’arrêt des attaques contradictoires contre les modèles d’IA nécessitent de nouvelles méthodes.
EMA : des problèmes de sécurité concernent la gestion de réseau basée sur l’IA/ML
La sécurité est également une préoccupation majeure pour les entreprises qui envisagent des solutions de gestion de réseau basées sur l’IA/ML, selon une étude récente d’Enterprise Management Associates (EMA).
L’EMA a interrogé 250 professionnels de l’informatique sur leur expérience des solutions de gestion de réseau basées sur l’IA/ML et a constaté que près de 39 % d’entre eux sont confrontés au risque de sécurité associé au partage de données réseau avec des systèmes AI/ML.
« De nombreux fournisseurs proposent des solutions de mise en réseau basées sur l’IA sous forme d’offres basées sur le cloud. Les équipes informatiques doivent envoyer leurs données réseau dans le cloud pour analyse. Certains secteurs, comme les services financiers, sont réticents à envoyer des données réseau vers le cloud. Ils préfèrent le conserver en interne avec un outil sur site. Malheureusement, de nombreux fournisseurs de réseaux ne prennent pas en charge une version sur site de leur lac de données d’IA, car ils ont besoin de l’évolutivité du cloud pour le faire fonctionner », a déclaré l’EMA dans son rapport, AI-Driven Networks: Leveling up Network Management.