Le régulateur antitrust du Royaume-Uni a mis en garde les géants de la technologie après avoir exprimé ses inquiétudes quant au fait que les développements sur le marché de l’IA pourraient étouffer l’innovation.
Sarah Cardell, PDG de l’Autorité britannique de la concurrence et des marchés (CMA), a prononcé jeudi un discours sur la réglementation de l’intelligence artificielle à Washington DC, soulignant les nouveaux éléments spécifiques à l’IA d’une enquête précédemment annoncée sur les fournisseurs de services cloud.
La CMA étudiera également comment le partenariat de Microsoft avec OpenAI pourrait affecter la concurrence dans l’écosystème plus large de l’IA. Un autre volet de l’enquête portera sur le paysage concurrentiel des puces accélératrices d’IA, un segment de marché où Nvidia détient une influence.
Tout en saluant le rythme rapide du développement de l’IA et les nombreuses innovations récentes, Cardell s’est dit préoccupé par le fait que les géants technologiques existants exercent un contrôle excessif.
« Nous pensons que la présence croissante tout au long de la chaîne de valeur des modèles de base d’un petit nombre d’entreprises technologiques historiques, qui détiennent déjà des positions de pouvoir sur bon nombre des marchés numériques les plus importants d’aujourd’hui, pourrait profondément façonner ces nouveaux marchés au détriment d’une concurrence équitable et ouverte. et une concurrence efficace », a déclaré Cardell dans un discours prononcé lors de la conférence de printemps sur le droit antitrust.
Craintes de verrouillage des fournisseurs
Les ventes liées ou groupées anticoncurrentielles de produits et de services rendent la vie plus difficile aux nouveaux arrivants. Les partenariats et les investissements, notamment dans la fourniture d’intrants essentiels tels que les données, la puissance de calcul et l’expertise technique, constituent également une menace concurrentielle, selon Cardell.
Elle a critiqué la « dynamique du gagnant qui rafle tout » qui a abouti à la domination d’un « petit nombre de plates-formes puissantes » sur le marché émergent des technologies et des services basés sur l’IA.
« Nous avons vu des cas où ces entreprises historiques exploitent leur principal pouvoir de marché pour empêcher les nouveaux entrants et les petits acteurs de rivaliser efficacement, entravant ainsi l’innovation et la croissance que les marchés libres et ouverts peuvent apporter à nos sociétés et à nos économies », a-t-elle déclaré.
Le projet de loi britannique sur les marchés numériques, la concurrence et les consommateurs, parallèlement aux pouvoirs existants de la CMA, pourrait donner à l’autorité la capacité de promouvoir la diversité et le choix sur le marché de l’IA.
Amazon et Nvidia ont refusé de commenter le discours de Cardell tandis que les autres fournisseurs cités dans le discours (Google, Microsoft et OpenAI) n’ont pas immédiatement répondu.
Dan Shellard, associé de la société européenne de capital-risque Breega et ancien employé de Google, a déclaré que la CMA avait raison de s’inquiéter de l’évolution du marché de l’IA.
“En raison des grandes quantités de calcul, de talents, de données et, en fin de compte, de capitaux nécessaires pour construire des modèles fondamentaux, l’IA, de par sa nature, est centralisée au sein des grandes technologies”, a déclaré Shellard.
“Bien sûr, nous avons vu quelques acteurs européens réussir à lever les capitaux nécessaires pour être compétitifs, notamment Mistral, mais la réalité est que les modèles sous-jacents aux technologies d’IA restent la propriété d’un groupe exclusif.”
La loi européenne sur l’IA récemment votée et le potentiel d’une réglementation américaine sur le marché de l’IA donnent un tableau changeant, dans lequel la CMA n’est qu’un acteur dans un mouvement croissant. Les implications de la réglementation et de la surveillance des outils d’IA par des entités telles que la CMA sont importantes, selon les experts du secteur.
« Les futures réglementations pourraient imposer des règles plus strictes concernant les « intrants clés » dans le développement, l’utilisation et la vente de composants d’IA tels que les données, l’expertise et les ressources de calcul », a déclaré Jeff Watkins, directeur des produits et de la technologie chez xDesign, une société basée au Royaume-Uni. conseil en conception numérique.
Atténuation des risques
Il reste à voir comment la réglementation visant à empêcher la concentration du pouvoir de marché influencera les concentrations existantes – de code et de données – autour de l’IA.
James Poulter, PDG du développeur d’outils d’IA Vixen Labs, a suggéré que les entreprises souhaitant développer leurs propres outils d’IA devraient chercher à utiliser des technologies open source afin de minimiser les risques.
« Si la CMA et d’autres organismes de réglementation commencent à imposer des restrictions sur la manière dont les modèles de fondations sont formés – et, plus important encore, à tenir les créateurs responsables de la production de ces modèles – nous pourrions assister à une augmentation du nombre d’entreprises cherchant à adopter une approche open source pour limiter leur responsabilité », a déclaré Poulter.
Alors que les sociétés de services financiers, les détaillants et autres devraient prendre le temps d’évaluer les modèles qu’ils choisissent de déployer dans le cadre d’une stratégie d’IA, les régulateurs sont « généralement prédisposés à demander des comptes aux entreprises qui créent de tels modèles – plutôt qu’à réprimer les utilisateurs ». ” il a dit.
La confidentialité des données est davantage un problème pour les entreprises qui cherchent à déployer l’IA, selon Poulter.
Poulter a conclu : « Nous avons besoin d’un modèle réglementaire qui encourage les utilisateurs d’outils d’IA à assumer la responsabilité personnelle de la manière dont ils les utilisent, y compris les données qu’ils fournissent aux créateurs de modèles, et qui garantit que les fournisseurs de modèles de base adoptent une approche éthique de la formation des modèles. et le développement. »
L’élaboration de réglementations sur le marché de l’IA pourrait introduire des pratiques de gouvernance des données plus strictes, créant ainsi des problèmes de conformité supplémentaires.
“Les entreprises utilisant l’IA pour des tâches telles que le profilage des clients ou l’analyse des sentiments pourraient faire l’objet d’audits pour garantir que le consentement des utilisateurs est obtenu pour la collecte de données et que les principes d’utilisation responsable des données sont respectés”, a déclaré Mayur Upadhyaya, PDG d’APIContext. “De plus, des normes de sécurité et d’autorisation des API plus strictes pourraient être mises en œuvre.”
Le Dr Kjell Carlsson, responsable de la stratégie d’IA chez Domino Data Lab, a déclaré : « L’IA générative augmente les risques liés à la confidentialité des données, car elle permet aux clients et aux employés d’interagir plus facilement avec les modèles d’IA, par exemple via des chatbots améliorés, ce qui facilite la tâche des utilisateurs. personnes à divulguer des informations sensibles, qu’une organisation est alors tenue de protéger. Malheureusement, les mécanismes traditionnels de gouvernance des données ne permettent pas de minimiser le risque de violation du RGPD lors de l’utilisation de l’IA, car ils sont déconnectés du cycle de vie du modèle d’IA.
Upadhyaya d’APIContext a suggéré d’intégrer des mécanismes de consentement des utilisateurs directement dans les interactions avec les chatbots IA et autres, offrant une approche pour atténuer les risques de non-conformité aux réglementations telles que le RGPD.
IA générative, Régulation