Agentic RAG suscite beaucoup d’attention ces jours-ci en tant que moyen pratique de réduire – ou, selon l’audace du fournisseur, d’éliminer – les hallucinations des outils d’IA générative (genAI). Malheureusement, cela ne diminuera peut-être pas les hallucinations, mais cela pourrait ouvrir la porte à d’autres problèmes.
Pour être clair, il n’y a rien de mal à propos d’Agentic RAG (qui signifie génération augmentée de récupération) ; cela fonctionne bien pour certains utilisateurs, mais pour d’autres, il est décevant, coûteux, demande beaucoup de travail et ne tient pas toujours ses principales promesses.
Agentic RAG est conçu pour permettre l’intégration de bases de données et de sources de données supplémentaires afin qu’un algorithme genAI dispose d’une gamme d’informations plus large pour ses conclusions initiales. Mais utiliser l’IA pour gérer l’IA — en bref, ajouter encore plus L’IA dans l’équation ne produit pas toujours de meilleurs résultats.
J’ai parlé à deux experts en genAI qui devraient le savoir : Alan Nichol, CTO chez Rasa, et la spécialiste des agents Sandi Besen.
« Agentic RAG est un mot à la mode inutile », a déclaré Nichol. “Cela signifie simplement ajouter une boucle autour de votre [large language models] et les appels de récupération. Le marché se trouve dans un endroit étrange où l’ajout d’une boucle « while » ou d’une instruction « if » supplémentaire au code est présenté comme une nouvelle méthode révolutionnaire. Les agents Web de pointe n’atteignent qu’un taux de réussite de 25 %, un chiffre inacceptable dans n’importe quel contexte logiciel.
“Les entreprises et les développeurs feraient mieux de construire explicitement une logique métier dans du code standard”, a-t-il déclaré. “Ils peuvent utiliser les LLM pour convertir les entrées des utilisateurs dans des formats structurés et paraphraser les résultats de recherche, ce qui leur donne un son plus naturel.”
Nichol a fait valoir que Agentic RAG constitue souvent la mauvaise approche pour les besoins d’analyse des données des entreprises. “Agentic RAG n’est pas une bonne façon d’envisager le problème”, a-t-il déclaré. “Tout RAG performant n’est qu’un simple moteur de recherche sur lequel vous saupoudrez un peu de magie LLM.”
Même si cette tactique peut fonctionner, le service informatique devrait arrêter de penser que « la façon de résoudre ce problème (d’hallucination) est de lancer un autre appel LLM », a déclaré Nichol. « Les gens espèrent que ce type d’approche résoudra comme par magie la racine du problème. »
Et quelle est la racine du problème ? Qualité des données.
Nichol a déclaré qu’il voit souvent des entreprises qui ont « construit un mauvais système de récupération, parce qu’elles n’ont pas nettoyé leurs données. Il est ennuyeux et peu sexy de nettoyer des informations obsolètes, telles que la gestion des versions et la gestion des conflits de données. Au lieu de cela, ils ajoutent sept autres appels LLM au papier sur tous les problèmes de données qu’ils rencontrent. Cela va simplement demander beaucoup de travail au LLM et cela ne fonctionnera pas très bien.
“Cela ne résoudra pas votre problème, mais vous aurez l’impression que c’est le cas.”
Besen, chercheur en IA appliquée chez IBM, affirme que l’agentique peut effectivement réduire les hallucinations, mais convient avec Nichol que ce n’est peut-être pas toujours la meilleure approche d’entreprise.
Besen prévient que l’ajout de complexité à un package genAI – quelque chose qui est déjà complexe – peut entraîner des problèmes inattendus.
“Lorsque vous augmentez le (nombre) d’agents, vous augmentez intrinsèquement la variabilité d’une solution”, a-t-elle déclaré. “Cependant, avec une architecture appropriée en place, ce qui signifie que l’équipe d’agents [is] construit de manière efficace – et des incitations adéquates, il devrait y avoir une diminution du risque d’hallucinations car vous pouvez intégrer l’évaluation et le raisonnement. Par exemple, vous pouvez avoir un agent qui récupère le contenu et un autre qui évalue si les informations récupérées sont pertinentes pour répondre à la question d’origine. Avec le RAG traditionnel, il n’y avait pas de contrôle de raisonnement en langage naturel pour déterminer si les informations récupérées étaient pertinentes.
Comme toute autre chose en programmation, cela peut ou non donner les résultats souhaités. « Il existe un moyen de réussir et un moyen de tout gâcher. L’astuce consiste à adapter nos attentes aux capacités de la technologie », a déclaré Besen. « La capacité d’un agent est aussi bonne que le modèle linguistique qui le sous-tend. La capacité de raisonnement dépend du modèle de langage.
Cela dit, Besen a souligné que – malgré ce que prétendent certains fournisseurs d’IA – même le meilleur déploiement de RAG agentique ne fera jamais disparaître les hallucinations. « Il est impossible d’éliminer complètement les hallucinations à l’heure actuelle. Mais il pourrait y avoir une réduction des hallucinations.
C’est aux responsables informatiques de décider si cette incertitude, et le risque de mauvaises réponses de temps en temps, sont des choses avec lesquelles ils peuvent vivre. “Si vous voulez le même résultat à chaque fois, n’utilisez pas genAI”, a déclaré Besen. Quant à l’acceptation d’hallucinations occasionnelles, Besen a suggéré au service informatique de réfléchir à la manière dont il réagirait si un employé ou un entrepreneur le faisait.
« Êtes-vous d’accord avec le fait d’avoir un employé qui n’a pas raison 10 % du temps ? »