Vol de modèle d’IA: risque et atténuation à l’ère numérique

L’IA promet de transformer radicalement les entreprises et les gouvernements, et son potentiel alléchant stimule une activité d’investissement massive. Alphabet, Amazon, Meta et Microsoft se sont engagés à dépenser plus de 300 milliards de dollars combinés en 2025 en infrastructure et développement d’IA, une augmentation de 46% par rapport à l’année précédente. De nombreuses autres organisations dans les secteurs investissent également massivement dans l’IA.

Les entreprises ne sont cependant pas les seules qui se penchent vers l’IA pour leur prochaine opportunité de revenus. Même si les entreprises se précipitent pour développer des systèmes d’IA propriétaires, les acteurs de la menace trouvent déjà des moyens de les voler et les données sensibles qu’elles traitent. La recherche suggère un manque de préparation du côté défensif. Une enquête en 2024 auprès de 150 professionnels de l’informatique publiée par le fournisseur de sécurité de l’IA Hidden Layer a révélé que, même si 97% ont déclaré que leurs organisations priorisent la sécurité de l’IA, seulement 20% prévoient et testent le vol de modèle.

Quel est le vol du modèle AI et pourquoi c’est important

Un modèle d’IA est le logiciel informatique formé sur un ensemble de données pour reconnaître les relations et les modèles entre les nouvelles entrées et évaluer ces informations pour tirer des conclusions ou agir. En tant qu’éléments fondamentaux des systèmes d’IA, les modèles d’IA utilisent des algorithmes pour prendre des décisions et mettre en mouvement les tâches sans instruction humaine.

Parce que les modèles d’IA propriétaires sont coûteux et qui prennent du temps à créer et à former, l’une des menaces les plus graves auxquelles les organisations sont confrontées est le vol des modèles eux-mêmes. Le vol du modèle AI est l’accès, la duplication ou la rétro-ingénierie non autorisée de ces programmes. Si les acteurs de la menace peuvent capturer les paramètres et l’architecture d’un modèle, ils peuvent à la fois établir une copie du modèle d’origine pour leur propre usage et extraire des données précieuses qui ont été utilisées pour former le modèle.

https://www.youtube.com/watch?v=2fulxaj8ajg

Les retombées possibles du vol du modèle d’IA sont significatives. Considérez les scénarios suivants:

  • Perte de propriété intellectuelle. Les modèles d’IA propriétaires et les informations qu’ils traitent sont une propriété intellectuelle très précieuse. Perdre un modèle d’IA à cause du vol pourrait compromettre la position concurrentielle d’une entreprise et compromettre ses perspectives de revenus à long terme.
  • Perte de données sensible. Les cybercriminels pourraient avoir accès à toutes les données sensibles ou confidentielles utilisées pour former un modèle volé et, à leur tour, utiliser ces informations pour violer d’autres actifs dans l’entreprise. Le vol de données peut entraîner des pertes financières, endommagé la confiance des clients et des amendes réglementaires.
  • Création de contenu malveillant. Les mauvais acteurs pourraient utiliser un modèle d’IA volé pour créer un contenu malveillant, tels que Deep Fakes, des logiciels malveillants et des schémas de phishing.
  • Dommages de réputation. Une organisation qui ne protégeait pas ses systèmes d’IA et ses données sensibles fait face à la possibilité de dommages de réputation graves et durables.

Types d’attaque de vol de modèle AI

Les termes Vol de modèle AI et extraction du modèle sont interchangeables. Dans l’extraction du modèle, les pirates malveillants utilisent des attaques basées sur les requêtes pour interroger systématiquement un système d’IA avec des invites conçues pour démêler des informations sur l’architecture et les paramètres du modèle. En cas de succès, les attaques d’extraction de modèles peuvent créer un modèle d’ombre en inverse de l’origine. Une attaque d’inversion de modèle est un type lié d’attaque basée sur les requêtes qui vise spécifiquement à obtenir les données utilisées par une organisation pour former son modèle d’IA propriétaire.

Un type secondaire d’attaque de vol de modèle d’IA, appelé republier modèleimplique des pirates malveillants qui font une copie directe d’un modèle d’IA libéré ou volé publiquement sans autorisation. Ils pourraient le recycler – dans certains cas, pour se comporter de manière malveillante – pour mieux répondre à leurs besoins.

Dans leur quête pour voler un modèle d’IA, les cybercriminels peuvent utiliser des techniques telles que les attaques de canaux secondaires qui suivent l’activité du système, y compris le temps d’exécution, la consommation d’énergie et les ondes sonores, pour mieux comprendre les opérations d’un système d’IA.

Enfin, les cyber-étanches classiques – telles que les initiés malveillants et l’exploitation de erreurs de configurations ou de logiciels non corrigées – peuvent indirectement exposer les modèles d’IA aux acteurs de menace.

Prévention et atténuation des vols du modèle d’IA

Pour prévenir et atténuer le vol du modèle d’IA, OWASP recommande de mettre en œuvre les mécanismes de sécurité suivants:

  • Contrôle d’accès. Mettez des mesures de contrôle d’accès strictes en place, comme le MFA.
  • Sauvegardes. Sauvegardez le modèle, y compris ses données de code et de formation, au cas où elles seront volées.
  • Cryptage. Cryptez le code du modèle d’IA, les données de formation et les informations confidentielles.
  • Protection juridique. Envisagez de rechercher des brevets ou d’autres protections officielles de la propriété intellectuelle pour les modèles d’IA, qui fournissent un recours juridique clair dans le cas du vol.
  • Obfuscation du modèle. Obscassez le code du modèle pour rendre difficile pour les pirates malveillants de le rétro-ingérez en utilisant des attaques basées sur les requêtes.
  • Surveillance. Surveillez et vérifiez l’activité du modèle pour identifier les tentatives de violation potentielles avant qu’un vol à part entière ne se produise.
  • Affiches. Baskmark Code du modèle AI et données de formation pour maximiser les chances de retrouver les voleurs.

Amy Larsen DeCarlo a couvert l’industrie informatique depuis plus de 30 ans, en tant que journaliste, rédacteur et analyste. En tant qu’analyste principal chez GlobalData, elle couvre les services de sécurité et de cloud gérés.

Partager cet Article
Quitter la version mobile