SAN FRANCISCO — Des responsables du gouvernement fédéral présents à la conférence RSA 2024 ont vanté les énormes avantages de l’intelligence artificielle, mais ont également souligné la nécessité de se protéger contre les risques et les abus potentiels de la technologie.
L’intelligence artificielle, et plus particulièrement l’IA générative, a une fois de plus dominé la plus grande conférence mondiale sur la cybersécurité, et tout au long de la semaine, les dirigeants gouvernementaux ont donné leur avis sur la technologie et sur ce qu’elle signifie pour les secteurs public et privé. Lundi, lors de son discours d’ouverture à la conférence RSA 2024, le secrétaire d’État Antony Blinken a dévoilé la stratégie internationale du département d’État en matière de cyberespace et de numérique, qui décrit la manière dont le gouvernement américain envisage de s’engager et de s’associer avec d’autres pays sur une série de questions technologiques, y compris l’IA.
“En ce qui concerne l’IA, encore une fois, aussi confiants que nous soyons dans son potentiel, nous sommes profondément conscients de ses risques : du déplacement d’emplois à la génération de fausses informations, en passant par la promotion des préjugés et de la discrimination, jusqu’à permettre l’utilisation déstabilisatrice d’armes autonomes. “, a-t-il déclaré lors de son discours. “Nous travaillons donc avec nos partenaires pour prévenir et résoudre ces problèmes.”
Blinken a souligné le décret du président Joe Biden l’automne dernier visant à créer des normes pour un développement sûr et sécurisé de l’IA, ainsi que la création récente du US AI Safety Institute Consortium, qui comprend plus de 200 entreprises privées telles que Google, Microsoft, Nvidia et OpenAI. .
“Le secteur privé est un partenaire essentiel dans cet effort, c’est pourquoi nous avons travaillé avec des sociétés d’IA de premier plan sur une série d’engagements volontaires, comme s’engager à effectuer des tests de sécurité avant de lancer de nouveaux produits, développer des outils pour aider les utilisateurs à reconnaître le contenu généré par l’IA. “, a déclaré Blinken.
Le Département d’État a également commencé à piloter des projets GenAI cette année pour aider à la recherche, à la synthèse, à la traduction et même à la composition de documents, ce qui, selon Blinken, permet aux membres du personnel de passer plus de temps en face-à-face au lieu de temps devant un écran.
Alejandro Mayorkas, secrétaire du Département de la Sécurité intérieure, a également discuté des applications de la technologie de l’IA dans les projets pilotes du DHS. Par exemple, un projet combine tous les rapports d’enquêtes criminelles et utilise l’IA « pour identifier des liens dont nous n’aurions pas connaissance autrement », a-t-il déclaré.
“Ce que j’aimerais, c’est que ce public jette un coup d’œil au DHS dans cinq ans et dise : ‘Wow, je n’arrive pas à croire à quel point ils utilisent l’IA pour faire avancer leur mission.’ Il s’agit d’une redéfinition de la perception du gouvernement, non pas comme paresseux et labyrinthique, mais comme agile, dynamique et repoussant vraiment les limites nous-mêmes”, a déclaré Mayorkas.
Cependant, l’utilisation interne et externe de l’IA présente des risques importants, a-t-il déclaré. À cette fin, le DHS a publié le mois dernier des directives de sûreté et de sécurité destinées aux organisations américaines d’infrastructures critiques concernant l’utilisation de l’IA, ainsi que les menaces extérieures potentielles. Ces menaces incluent des attaques d’ingénierie sociale améliorées par l’IA, telles que les deepfakes audio et vidéo.
Mais Mayorkas a souligné que les organisations doivent également prendre en compte les risques associés à la conception et à la mise en œuvre de l’IA. Une chose qui a été clairement établie lors de la réunion inaugurale du nouveau conseil consultatif sur la sûreté et la sécurité de l’IA du DHS, a-t-il déclaré, est que le développement sûr et responsable de la technologie va de pair. “Nous ne pouvons pas considérer qu’une mise en œuvre sûre signifie une perpétuation potentielle de préjugés implicites, par exemple”, a-t-il déclaré.
Utilisation malveillante de l’IA
Un sujet de discussion fréquent cette semaine était la manière dont les acteurs malveillants peuvent utiliser et abuser de la technologie de l’IA pour renforcer leurs attaques. Lors d’une séance mercredi, Rob Joyce, ancien directeur de la cybersécurité à la National Security Agency, a déclaré que les acteurs malveillants de tous types ont déjà commencé à utiliser des outils d’IA pour améliorer les e-mails de phishing et autres attaques d’ingénierie sociale.
“Nous ne voyons pas d’exploitations techniques basées sur l’IA. Nous voyons certainement l’IA utilisée pour analyser et trouver des vulnérabilités à grande échelle”, a déclaré Joyce. “Nous constatons que l’IA est utilisée pour comprendre certaines des publications techniques et les nouvelles publications CVE afin de contribuer à la création d’exploits N-day. Mais le formidable développement des 0-days pour les activités de piratage [is] pas encore là aujourd’hui.”
Lors d’une table ronde mardi, Lisa Monaco, procureure générale adjointe du ministère américain de la Justice, a qualifié l’IA d'”outil incroyable” que le DOJ utilise pour diverses tâches, allant de l’analyse et du tri des plus d’un million d’informations reçues par le FBI chaque année pour contribuer à l’enquête massive du 6 janvier. Mais elle a également déclaré que le DOJ examinait « constamment » les menaces potentielles de l’IA.
“Nous sommes préoccupés par la capacité de l’IA à réduire les barrières à l’entrée pour les criminels de tous bords et par la capacité de l’IA à dynamiser les acteurs malveillants, qu’il s’agisse des États-nations qui l’utilisent comme outil de répression et pour renforcer leur capacité. s’engager dans l’autoritarisme numérique [and] la capacité de l’IA à dynamiser la cybermenace et à permettre aux pirates de trouver des vulnérabilités à grande échelle et rapidement et de les exploiter”, a déclaré Monaco.
John Hultquist, analyste en chef du renseignement chez Mandiant, a déclaré à TechTarget Editorial que même si les acteurs de la menace abusent sans aucun doute de la technologie de l’IA et continueront de le faire, il pense que cela profitera en fin de compte à la cybersécurité et aux défenseurs bien plus qu’aux adversaires.
“En fin de compte, l’IA est un outil d’efficacité, et l’adversaire va l’utiliser comme un outil d’efficacité. Et je pense que dans une certaine mesure, les défenseurs ont en fait un avantage dans cette mesure parce que nous disposons des processus et d’autres outils dont nous pouvons disposer. l’intégrer”, a-t-il déclaré. “Nous le contrôlons ; ils ne le contrôlent pas nécessairement. Et nous y mettons constamment des contrôles pour réduire leur capacité à l’utiliser.”
Le rédacteur principal des informations sur la sécurité, Alex Culafi, a contribué à ce rapport.
Rob Wright est journaliste de longue date et directeur principal de l’information pour l’équipe de sécurité de TechTarget Editorial. Il dirige la couverture des dernières nouvelles et tendances en matière de sécurité de l’information. Vous avez un conseil ? Envoyez-lui un email.