Gardez les humains au courant
Bien que la participation d’employés humains aux flux de travail de genAI puisse ralentir les opérations et donc réduire l’efficacité qui était à l’origine de l’utilisation de genAI, Taylor a déclaré que parfois, une petite vérification ponctuelle par un humain peut être efficace.
Il a cité l’exemple d’un chatbot qui disait à un client d’Air Canada qu’il pouvait acheter un billet immédiatement et obtenir un crédit de deuil plus tard, ce qui n’est pas la politique de la compagnie aérienne. Un tribunal civil canadien a statué que la compagnie aérienne était responsable du remboursement du client parce que le chatbot était présenté comme faisant partie du site Web de la compagnie.
“Bien qu’il ne soit pas techniquement possible d’avoir un humain dans la boucle pendant le chat, car cela irait à l’encontre de l’objectif de l’utilisation d’un chatbot, vous pouvez certainement avoir un humain dans la boucle immédiatement après coup, peut-être sur une base d’échantillonnage, “, a déclaré Taylor. “[The person] pourrait vérifier le chatbot pour voir s’il a des hallucinations afin qu’il puisse être rapidement détecté pour contacter les utilisateurs concernés et également modifier la solution pour éviter (espérons-le) que de telles hallucinations ne se reproduisent.
Préparez-vous à vous amuser avec les régulateurs
Une autre considération de conformité avec genAI sera la nécessité d’expliquer beaucoup plus de détails techniques que ce que les DSI ont toujours dû faire lorsqu’ils discutent avec les régulateurs.
“Le DSI doit être prêt à partager une quantité assez importante d’informations, par exemple en discutant de l’ensemble du processus de flux de travail”, a déclaré Anzelc de Three Arc. « Voici quelle était notre intention. » Répertorier toutes les informations sous-jacentes, détaillant ce qui s’est réellement passé et pourquoi cela s’est produit. Lignée complète des données. genAI est-il devenu un voyou et a-t-il extrait des données d’une source Internet ou même les a inventées ? Quelle a été la construction algorithmique ? C’est là que les choses deviennent vraiment difficiles.
Après un incident, les entreprises doivent apporter des solutions rapides pour éviter que le problème ne se reproduise. « Cela pourrait nécessiter une refonte ou un ajustement du fonctionnement de l’outil ou de la manière dont les entrées et les sorties circulent. En parallèle, corrigez toutes les lacunes découvertes dans les mesures de surveillance afin que tout problème futur soit identifié plus rapidement », a déclaré Anzelc.
Il est également crucial de trouver un moyen significatif de calculer l’impact d’un incident, a-t-elle ajouté.
« Cela pourrait avoir des conséquences financières pour les clients, comme ce fut le cas avec le chatbot d’Air Canada, ou d’autres problèmes liés à la conformité. Les exemples incluent les déclarations potentiellement diffamatoires faites récemment par le chatbot Grok de X ou les actions d’employés telles que le professeur de l’Université du Texas qui a échoué dans un cours entier parce qu’un outil d’IA générative a déclaré à tort que tous les devoirs avaient été générés par l’IA et non par des étudiants humains », Anzelc dit.
« Comprenez les implications supplémentaires en matière de conformité, à la fois d’un point de vue réglementaire ainsi que des contrats et politiques que vous avez en place avec les clients, les fournisseurs et les employés. Vous devrez probablement réestimer l’impact à mesure que vous en apprendrez davantage sur la cause profonde du problème.