Le procès d’Elon Musk contre Sam Altman et OpenAI, déposé la semaine dernière devant un tribunal de l’État de Californie, accuse les accusés d’avoir oublié des éléments essentiels de la mission déclarée d’OpenAI de développer une intelligence artificielle générale utile et non nocive. Altman a depuis décidé de renforcer ses références en matière d’IA responsable, notamment en signant une lettre ouverte s’engageant à développer l’IA « pour améliorer la vie des gens ».
Les critiques ne sont cependant pas convaincues par la démonstration de responsabilité d’Altman. Depuis la popularisation rapide de l’IA générative (genAI) au cours de l’année écoulée, ces critiques ont averti que les conséquences d’un développement effréné et non réglementé de l’IA pourraient être non seulement corrosives pour la société humaine, mais constituer une menace pour elle.
Ritu Jyoti, vice-président du groupe pour la recherche mondiale sur l’IA et l’automatisation chez IDC, a déclaré que la décision d’Altman d’adopter publiquement le développement responsable n’est guère plus qu’une imposture.
“Bien que l’industrie s’accorde sur le fait qu’il existe une responsabilité collective de développer et de déployer l’IA de manière responsable, cette lettre ne répond pas aux actions spécifiques nécessaires”, a-t-elle déclaré. “Donc, à mon avis, pas beaucoup de valeur ajoutée.”
Altman est également signataire d’une lettre reconnaissant les risques de modification du monde liés à l’IA, mais les critiques continuent de soutenir que la nature autorégulatrice des efforts visant à faire face à ces risques est insuffisante.
La clé réside dans l’incapacité de l’industrie à résoudre le problème d’alignement, qui survient lorsque les outils d’IA commencent à développer un comportement au-delà de leurs spécifications de conception. La crainte est que les instances d’IA les plus avancées puissent potentiellement se répéter elles-mêmes – un risque sérieux de se développer d’une manière que les humains ne souhaitent pas.
« La question est : sommes-nous capables de contrôler un système s’il est plus intelligent que nous ? a demandé Joep Meindertsma, développeur néerlandais et fondateur du groupe PauseAI, qui se consacre à l’atténuation des risques posés par l’IA.
Meindertsma a donné l’exemple d’un système comme AutoGPT, qui peut essentiellement se poser des questions et créer ses propres requêtes pour accomplir des tâches de recherche complexes, comme le type de technologie qui pourrait s’avérer très perturbatrice – et dangereuse.
“À un moment donné, quelqu’un va demander à cet ordinateur quelque chose qui impliquerait l’idée qu’il est utile de le diffuser sur d’autres machines”, a-t-il déclaré. “Les gens ont littéralement demandé à AutoGPT d’essayer de conquérir le monde.”
Quant au procès contre Altman et OpenAI, a déclaré Meindertsma, Musk pourrait avoir raison. Selon lui, l’objectif premier de la création d’OpenAI était d’orienter le développement de l’IA dans des directions responsables. L’état actuel du développement à grande vitesse dépasse rapidement tous les garde-fous que les organisations industrielles ont créés sous la direction d’Altman et d’OpenAI.
On ne peut donc pas faire confiance à l’industrie pour s’autoréguler, et le gouvernement doit intervenir pour éviter une catastrophe potentielle, ont soutenu les critiques. Meindertsma a déclaré que les capacités déjà démontrées – telles que la capacité de GPT4 à pirater des sites Web de manière autonome – sont extrêmement dangereuses, et que le manque de réglementation combiné à l’évolution rapide de la genAI constitue une menace existentielle.
« Nous devrions le réglementer de la même manière que nous réglementons les matières nucléaires », a déclaré Meindertsma.
Copyright © 2024 IDG Communications, Inc.