L’Autorité britannique de la concurrence et des marchés (CMA) a mis en garde contre les risques potentiels de l’intelligence artificielle dans son étude récemment publiée sur les modèles de base de l’IA.
Les modèles de base sont des systèmes d’IA qui ont été formés sur des ensembles de données massifs et non étiquetés. Ils soutiennent de grands modèles de langage – comme GPT-4 d’OpenAI et PaLM de Google – pour des applications d’IA générative comme ChatGPT, et peuvent être utilisés pour un large éventail de tâches, telles que la traduction de texte et l’analyse d’images médicales.
Le nouveau rapport propose un certain nombre de principes pour guider le développement et l’utilisation continus des modèles de fondation, en s’appuyant sur les contributions de 70 parties prenantes, notamment un éventail de développeurs, d’entreprises, d’organisations de consommateurs et d’industries, d’universitaires et d’informations accessibles au public.
Les principes proposés sont :
- Responsabilité : les développeurs et les déployeurs de modèles de base d’IA sont responsables des résultats fournis aux consommateurs.
- Accès : accès continu et prêt aux entrées clés, sans restrictions inutiles.
- Diversité : Diversité soutenue des modèles commerciaux, qu’ils soient ouverts ou fermés.
- Choix : choix suffisant pour les entreprises afin qu’elles puissent décider comment utiliser les modèles de fondation.
- Flexibilité : Avoir la flexibilité de changer et/ou d’utiliser plusieurs modèles de fondations en fonction des besoins.
- Utilisation équitable : aucun comportement anticoncurrentiel, y compris l’auto-préférence, la vente liée ou le regroupement.
- Transparence : les consommateurs et les entreprises reçoivent des informations sur les risques et les limites du contenu généré par les modèles de base afin qu’ils puissent faire des choix éclairés.
Des modèles d’IA mal développés pourraient nuire à la société
Alors que le rapport de la CMA souligne comment les particuliers et les entreprises peuvent bénéficier de modèles de base correctement mis en œuvre et bien développés, il prévient que si la concurrence est faible ou si les développeurs d’IA ne respectent pas les lois sur la protection des consommateurs, cela pourrait entraîner des dommages sociétaux. Les exemples donnés incluent des citoyens exposés à des « niveaux importants » d’informations fausses et trompeuses et à la fraude basée sur l’IA.
La CMA a également averti qu’à long terme, la domination du marché par un petit nombre d’entreprises pourrait susciter des problèmes de concurrence, les acteurs établis utilisant des modèles de fondation pour consolider leur position et proposer des produits et services trop chers ou de mauvaise qualité.
« La vitesse à laquelle l’IA s’intègre dans la vie quotidienne des particuliers et des entreprises est spectaculaire. Il existe un réel potentiel pour que cette technologie augmente la productivité et facilite des millions de tâches quotidiennes – mais nous ne pouvons pas tenir pour acquis un avenir positif », a déclaré Sarah Cardell, PDG de la CMA, dans des commentaires publiés en même temps que le rapport.
« Il existe un risque réel que l’utilisation de l’IA se développe d’une manière qui sape la confiance des consommateurs ou soit dominée par quelques acteurs qui exercent un pouvoir de marché qui empêche que tous les bénéfices se fassent sentir dans l’ensemble de l’économie. »
La CMA a déclaré que dans le cadre de son programme d’engagement, elle continuerait à s’adresser à un large éventail de parties intéressées, notamment des groupes de consommateurs, des gouvernements, d’autres régulateurs et des principaux développeurs de modèles de base d’IA tels qu’Anthropic, Google, Meta, Microsoft, NVIDIA et OpenAI.
Le régulateur fera le point sur sa réflexion, notamment sur la manière dont les principes ont été reçus et adoptés, début 2024.
Quelles sont les prochaines étapes du CMA ?
La CMA n’est qu’un des régulateurs que le gouvernement britannique a chargé de peser sur la politique du pays en matière d’IA. En mars, le gouvernement a publié un livre blanc exposant ses lignes directrices pour une « utilisation responsable » de la technologie.
Cependant, afin « d’éviter une législation lourde qui pourrait étouffer l’innovation », le gouvernement a choisi de confier la responsabilité de la gouvernance de l’IA aux régulateurs sectoriels qui devront s’appuyer sur les pouvoirs existants en l’absence de nouvelles lois.
« La CMA a fait preuve d’une volonté louable de s’engager de manière proactive dans le secteur en croissance rapide de l’IA, afin de garantir que ses programmes en matière de concurrence et de protection des consommateurs soient engagés le plus tôt possible », a déclaré Gareth Mills, associé du cabinet d’avocats Charles Russell Speechlys.
Il a ajouté que même si les principes contenus dans le rapport sont « nécessairement larges », ils ont été clairement conçus pour créer de faibles conditions d’entrée dans le secteur, permettant aux petits acteurs de rivaliser efficacement avec des noms plus établis, tout en atténuant le potentiel des technologies d’IA. avoir un impact négatif sur les consommateurs.
« Il sera fascinant de voir comment la CMA cherche à réguler le marché pour garantir que les problèmes de concurrence soient résolus », a déclaré Russell.