Alors que le roi Charles III de Grande-Bretagne se levait mercredi au Parlement pour présenter le programme législatif proposé par le nouveau gouvernement travailliste, les experts en technologie étaient prêts à toute mention de l’intelligence artificielle (IA).
En l’occurrence, au milieu du faste coloré et de la cérémonie obscure qui fait la renommée de l’État britannique lors de l’ouverture officielle du Parlement, le discours prononcé était essentiellement une promesse d’une future législation dépourvue de tout détail sur la forme que celle-ci prendrait.
Tête parlante
Le discours du roi est l’endroit où le gouvernement élu britannique, en l’occurrence le gouvernement travailliste récemment élu, présente les projets de loi qu’il envisage de promulguer dans l’année à venir.
Le monarque prononce le discours, mais celui-ci est rédigé pour lui par le gouvernement. Son rôle est purement constitutionnel et cérémonial.
Il est difficile d’imaginer un plus grand contraste qu’une cérémonie dont les origines remontent à des centaines d’années et des sujets tels que l’IA, qui incarne la promesse et le péril du 21.St technologie du siècle.
Le gouvernement « cherchera à établir la législation appropriée pour imposer des exigences à ceux qui travaillent au développement des modèles d’intelligence artificielle les plus puissants », a annoncé le roi Charles.
Au-delà de l’accent mis sur la réglementation des modèles utilisés pour l’IA générative, cela laisse les projets du gouvernement et leur calendrier sujets à interprétation. Mais même la volonté d’agir marque un changement d’orientation par rapport à la politique de l’administration conservatrice déchue consistant à légiférer sur l’IA dans des limites étroites.
Tout le monde veut réguler l’IA
On s’attendait à ce que le nouveau gouvernement aille plus loin, grâce aux déclarations d’intention générales contenues dans le Manifeste du Parti travailliste 2024.
“Nous veillerons à ce que notre stratégie industrielle soutienne le développement du secteur de l’intelligence artificielle (IA) et supprime les obstacles à la planification des nouveaux centres de données”, indique le Manifeste avant d’aborder la nécessité d’une réglementation.
« Les travaillistes garantiront le développement et l’utilisation en toute sécurité des modèles d’IA en introduisant une réglementation contraignante pour la poignée d’entreprises développant les modèles d’IA les plus puissants et en interdisant la création de deepfakes sexuellement explicites. »
La disparition de ces modestes ambitions pourrait indiquer que le gouvernement n’a pas encore déterminé à quoi devrait ressembler une « réglementation contraignante » à un moment où d’autres législations semblent plus urgentes.
Le gouvernement précédent craignait qu’une trop grande réglementation n’étouffe le développement. De même, l’absence de réglementation comporte le risque qu’au moment où cela devient nécessaire, il soit trop tard pour agir.
L’UE, bien sûr, a déjà sa loi sur l’IA, tandis que les États-Unis travaillent encore sur un mélange de propositions législatives renforcées par les décrets de l’administration Biden décrivant les premiers principes.
Encore trop tôt ?
Un commentaire du défenseur de l’industrie open source, OpenUK, avant le discours du roi, résume le dilemme.
“Il y a des leçons que le Royaume-Uni peut tirer de la loi européenne sur l’IA qui s’avéreront probablement être une mise en garde trop prescriptive et lourde de capture réglementaire avec seules les plus grandes entreprises capables de s’y conformer, étouffant l’innovation dans l’UE”, a déclaré le PDG de l’organisation. Amanda Brock.
Il est encore trop tôt pour légiférer d’une manière qui crée des murs et des restrictions juridiques.
« Pour que le Royaume-Uni reste pertinent à l’échelle mondiale et bâtisse des entreprises d’IA prospères, l’ouverture est cruciale. Cela permettra à l’écosystème britannique de renforcer son statut de leader mondial de l’IA open source, derrière les États-Unis et la Chine », a-t-elle ajouté.
Mais tout le monde n’est pas convaincu que l’approche attentiste soit la bonne.
« La réglementation ne consiste pas seulement à imposer des restrictions au développement de l’IA ; il s’agit de fournir la clarté et les orientations nécessaires pour promouvoir une innovation sûre et durable », a déclaré Bruna de Castro e Silva du spécialiste de la gouvernance de l’IA Saidot.
« Alors que l’UE avance dans la publication de sa loi officielle sur l’IA, les entreprises britanniques attendent des directives claires sur la manière de développer et de déployer l’IA de manière sûre et éthique. »
C’est pourquoi la réglementation de l’IA est considérée comme une tâche ingrate. Adoptez une approche interventionniste et les experts feront la queue pour dire que vous étouffez une technologie au potentiel économique et social énorme. Adoptez une approche plus prudente et les autres diront que vous n’en faites pas assez.
En novembre dernier, l’administration conservatrice précédente de Rishi Sunak s’est lancée dans le thème de l’IA en organisant un sommet mondial sur la sécurité de l’IA avec un éclat symbolique dans le célèbre centre de décryptage de la Seconde Guerre mondiale, juste à l’extérieur de Londres, à Bletchley Park.
Lors de cet événement, plusieurs grands noms de l’IA – OpenAI, Google DeepMind, Anthropic – se sont engagés à donner à un nouveau groupe de travail Frontier AI un accès anticipé à leurs modèles pour mener des évaluations de sécurité.
Le nouveau gouvernement hérite de cette promesse, même si pour beaucoup d’autres, il semblera que la certitude quant au régime législatif britannique en matière d’IA n’est pas plus proche qu’elle ne l’était alors.