La législation de l’Union européenne (UE) qui établirait des garde-fous pour l’utilisation et le développement de la technologie de l’IA semble être sur la bonne voie vers la ratification alors que deux groupes clés de législateurs du Parlement européen ont approuvé mardi un accord provisoire sur les règles proposées.
La commission des libertés civiles, de la justice et des affaires intérieures (LIBE) et la commission du marché intérieur et de la protection des consommateurs (IMCO) du Parlement européen ont approuvé la loi sur l’IA avec un « vote majoritairement favorable », mettant les règles « en bonne voie de devenir une loi ». Dragoș Tudorache, membre du Parlement européen et président de la commission spéciale de l’UE sur l’IA, tweeté sur X anciennement Twitter.
Les règles, sur lesquelles le Parlement européen votera officiellement en avril, exigent que les organisations et les développeurs évaluent les capacités de l’IA et les classent dans l’une des quatre catégories de risque : risque minimal, limité, élevé et inacceptable. La loi est la première législation gouvernementale complète visant à superviser la manière dont l’IA sera développée et utilisée, et a reçu à la fois l’approbation et la prudence des technologues.
“La priorité du Parlement est de garantir que les systèmes d’IA utilisés dans l’UE soient sûrs, transparents, traçables, non discriminatoires et respectueux de l’environnement”, a déclaré l’UE en décrivant la législation en ligne. “Les systèmes d’IA devraient être supervisés par des personnes, plutôt que par l’automatisation, pour éviter des conséquences néfastes.”
Configurer pour la simplicité
À la base, la réglementation est simple, a déclaré Nader Henein du Gartner, chercheur en confidentialité des informations et vice-président de la recherche en matière de protection des données et de confidentialité. “Cela exige que les organisations (et les développeurs) évaluent leurs capacités d’IA et les placent dans l’un des quatre niveaux définis par la loi”, a-t-il déclaré. “En fonction du niveau, différentes responsabilités incombent soit au développeur, soit au déployeur. “.
Certains groupes de défense et même une analyse du gouvernement américain se sont toutefois opposés à la loi sur l’IA. Digital Europe, un groupe de défense qui représente les industries numériques à travers le continent, a publié une déclaration commune en novembre avant les dernières semaines de négociations de la loi, avertissant qu’une réglementation excessive pourrait entraver l’innovation et pousser les startups à quitter la région. Le groupe a exhorté les législateurs à ne pas « réglementer » les nouveaux acteurs de l’IA dans l’UE « pour les faire disparaître » avant même qu’ils n’en aient l’occasion.
Henein a soutenu que les mandats de la loi « ne constituent en aucun cas un obstacle à l’innovation. L’innovation, de par sa nature, trouve un moyen de fonctionner dans les limites réglementaires et d’en faire un avantage », a-t-il déclaré.
L’adoption des règles « devrait être simple » dans la mesure où les développeurs et les revendeurs fournissent aux clients les informations dont ils ont besoin pour procéder à une évaluation ou se conformer, a déclaré Henein.
Néanmoins, un expert en technologie a déclaré que certaines critiques concernant la nature prescriptive de la loi sur l’IA et son langage vague sont valables – et que sa pertinence pourrait ne pas durer car il est souvent difficile pour les réglementations d’évoluer au rythme de la technologie.
“Certaines parties de la réglementation ont beaucoup de sens, comme l’interdiction de la” police prédictive “qui demande à la police de s’en prendre à quelqu’un simplement parce qu’un système d’IA le lui a demandé”, a déclaré Jason Soroko, vice-président senior des produits chez Sectigo, une société de gestion du cycle de vie des certificats. “Mais il y a aussi des parties de la réglementation qui pourraient être difficiles à interpréter et qui pourraient ne pas durer longtemps, comme les réglementations spéciales pour les systèmes d’IA plus avancés.”
D’autres restrictions en perspective ?
En outre, les entreprises pourraient être confrontées à des problèmes de conformité dans le processus de découverte alors qu’elles construisent un catalogue de cas d’utilisation de l’IA existants, et la catégorisation ultérieure de ces cas d’utilisation dans la structure hiérarchique de la loi, a déclaré Henein.
« De nombreuses organisations pensent qu’elles sont novices en matière d’IA alors qu’en réalité, il n’existe aujourd’hui pratiquement aucun produit remarquable qui ne dispose pas de capacités d’IA », a déclaré Henein. “Les outils de détection de logiciels malveillants et les filtres anti-spam s’appuient sur l’apprentissage automatique depuis plus d’une décennie maintenant, ils entrent dans la catégorie à faible risque des systèmes d’IA et ne nécessitent aucune diligence raisonnable.”
Si l’UE vote en faveur de la loi en avril, comme cela semble probable, d’autres pays pourraient suivre. Plusieurs pays – parmi lesquels les États-Unis, le Royaume-Uni et l’Australie – ont déjà mis en place des groupes dirigés par le gouvernement pour superviser le développement de l’IA ; des réglementations plus formelles pourraient suivre.
Néanmoins, toute nouvelle règle ne s’appliquera probablement qu’aux cas les plus extrêmes dans lesquels l’IA présente un préjudice important à l’humanité ou autre. Les cas dans lesquels il est utilisé de manière responsable et présente même des avantages, tels que la productivité des travailleurs – ce qui est vrai dans le cas des chatbots d’IA génératifs actuellement utilisés basés sur de grands modèles de langage (LLM) tels que ChatGPT d’OpenAI – seront probablement peu surveillés.
“Ce que nous constatons des deux côtés de l’Atlantique, c’est la nécessité de restreindre purement et simplement certains cas d’utilisation ; ceux-ci entrent dans la catégorie interdite en vertu de la loi sur l’IA et présentent de graves dommages”, a déclaré Henein.