Le Sommet mondial sur la sécurité de l’IA montre la nécessité d’une approche collaborative face aux risques

Après des mois de préparation, le premier sommet mondial sur la sécurité de l’IA s’est terminé hier après deux jours de discussions organisées par le Royaume-Uni et auxquelles participent des représentants des principales entreprises d’IA, des gouvernements et des parties prenantes de l’industrie.

L’un des résultats du sommet a été la signature de la Déclaration de Bletchley, qui a vu 28 gouvernements, dont la Chine, les États-Unis et l’UE, convenir de travailler ensemble sur la sécurité de l’IA. Il s’agit d’un résultat positif car il montre qu’il existe une compréhension mondiale selon laquelle les pays ne peuvent pas faire face à la menace de l’IA de manière isolée, a déclaré Shweta Singh, professeur adjoint à l’Université de Warwick, dont les recherches portent sur l’IA éthique et responsable.

« Pour lutter contre les risques posés par l’IA, cela ne peut se faire que grâce à la collaboration, et pas seulement à la collaboration entre un ou deux pays, il faut un effort international », a-t-elle déclaré. “[The Declaration] est la première reconnaissance que c’est le seul moyen de lutter réellement contre les risques de l’IA et donc d’atténuer ces risques à l’avenir.

Cependant, le seul véritable accord que contient la déclaration est la promesse de continuer à parler, plutôt qu’un engagement en faveur d’une réglementation globale – une question sur laquelle les divisions entre les nations semblent être les plus marquées.

Le gouvernement britannique continue d’adopter une approche attentiste en matière de réglementation, arguant qu’au rythme actuel du développement, il serait difficile de proposer une législation car elle serait probablement inefficace presque aussitôt qu’elle serait adoptée. En outre, une grande partie des arguments avancés par le Royaume-Uni avant le sommet se sont concentrés sur certaines des menaces existentielles les plus criantes, notamment la capacité possible de l’IA à développer des armes biologiques et chimiques – des menaces que même les responsables gouvernementaux ont dû admettre comme étant les pires. cas ou des scénarios hautement improbables.

Au contraire, la Déclaration américaine des droits de l’IA, un décret signé par le président américain Joe Biden avant le sommet de lundi, cherche à s’attaquer aux risques immédiats présentés par l’IA, tels que les préjugés, la discrimination et la désinformation.

Abordant ces questions à l’ambassade des États-Unis à Londres, la vice-présidente Kamala Harris a déclaré que si les menaces existentielles telles que les cyberattaques basées sur l’IA et les armes biologiques formulées par l’IA sont profondes et exigent une action mondiale, il existe d’autres problèmes qui causent actuellement des dommages et sont déjà perçu par certains comme existentiel.

« Lorsque les gens du monde entier ne peuvent pas distinguer les faits de la fiction à cause d’un flot de désinformation et de désinformation générées par l’IA… n’est-ce pas existentiel pour la démocratie ? dit Harris. « Pour définir la sécurité de l’IA, je propose que nous devons considérer et traiter l’ensemble des risques liés à l’IA : les menaces pour l’humanité dans son ensemble, ainsi que les menaces pour les individus, les communautés, nos institutions et nos populations les plus vulnérables. »

Singh a déclaré que même si elle pouvait comprendre l’argument attentiste avancé par le gouvernement britannique, cela ne signifie pas que le pays devrait simplement rester les bras croisés et laisser l’IA continuer à se développer sans aucun garde-fou.

Elle estime également que le Premier ministre britannique Rishi Sunak ne parvient pas à comprendre ce que Harris et Biden ont clairement : que les menaces liées aux préjugés, à la discrimination et à la désinformation ne se profilent pas, mais ont déjà un impact sur la vie des gens.

“Le risque que nous courons actuellement, je ne pense pas qu’on en parle réellement [by the UK government]”, a déclaré Singh. “[The government] Il le regarde comme si c’était quelque chose qui allait nous affecter, en disant “nous devrons apprivoiser la bête”, mais le fait est que la bête est déjà dans la pièce.

Les représentants de l’industrie ont dominé l’événement

Même si le sommet comptait une centaine de participants, des inquiétudes ont été soulevées quant à la surreprésentation de certains groupes. Un tiers des invités venaient du secteur privé et la liste des participants était fortement occidentale, 60 % des participants à Bletchley Park venant du Royaume-Uni ou des États-Unis. Il y avait également une participation extrêmement minime de la société civile, et aucune organisation de défense des droits de l’homme ou de surveillance des médias n’était présente.

En outre, lors de la session axée sur les risques liés à l’intégration de l’IA frontalière dans la société, notamment la manière dont l’IA pourrait perturber les emplois et les industries, aucun représentant des droits des travailleurs n’était présent.

“Les grandes technologies dominaient la salle – Elon Musk, par exemple, était une distraction majeure, et les très rares médias présents n’étaient même pas en mesure de poser des questions”, a déclaré Michael Bak, directeur exécutif du Forum sur l’information et la démocratie. « Nous ne pouvons pas permettre à ceux qui créent, commercialisent et exploitent l’IA à des fins privées d’exercer plus d’influence que d’autres acteurs essentiels de la société civile. »

Bak a également déclaré que le centre mondial annoncé basé au Royaume-Uni – chargé de tester la sécurité des applications émergentes de l’IA – et la participation dans la salle manquaient notamment de contribution significative des pays de l’hémisphère sud, ce qui n’aurait pas dû être autorisé étant donné que l’IA aura un impact. toutes les démocraties et l’humanité.

« Cinquante et une démocraties soutiennent déjà le Partenariat international et le Forum pour l’information et la démocratie, un cadre international innovant qui garantit que la technologie vit au sein de la démocratie et non l’inverse », a déclaré Bak. « De tels cadres inclusifs sont plus solides et plus crédibles, et donc plus efficaces pour sauvegarder nos démocraties et répondre aux besoins et aspirations des peuples du monde entier. »

Quelle est la prochaine étape pour la coopération mondiale en matière d’IA ?

L’un des résultats tangibles du sommet de cette semaine a été l’engagement de la Corée du Sud et de la France à organiser leur propre sommet international sur la sécurité de l’IA en 2024. En outre, les gouvernements britannique et américain se sont également engagés à lancer leurs propres instituts de sécurité de l’IA, axés sur l’avancement de l’IA. la sécurité dans l’intérêt public, une démarche que Singh pense que davantage de pays suivront.

Même si la réglementation peut sembler encore loin, Singh a déclaré qu’à court terme, les gouvernements peuvent prendre certaines mesures pour lutter contre les préjudices actuels.

“[These harms are] des problèmes qui se produisent actuellement et auxquels nous devons nous attaquer, mais cela ne doit pas toujours se faire par le biais de la réglementation », a-t-elle déclaré. “Par exemple, la technologie du filigrane peut être utilisée pour lutter contre les deepfakes et contribuer à stopper la propagation de la désinformation, et c’est quelque chose qui n’oblige aucun gouvernement à adopter une loi.”

En fin de compte, le résultat concret le plus important de la semaine a été le dévoilement de la Déclaration des droits de l’IA du gouvernement américain, qui, bien que n’étant pas directement liée au sommet, selon Singh, a probablement été avancée pour coïncider avec l’événement.

Les problèmes soulignés par l’administration Biden dans le document sont des idéaux que Singh estime que tous les gouvernements pourraient et devraient soutenir, offrant une approche véritablement universelle pour lutter contre les méfaits de l’IA.

« À mesure que nous progressons, nous espérons voir chaque nation adopter ces piliers, ou du moins quelque chose de similaire », a-t-elle déclaré.

Partager Cet Article
Quitter la version mobile