«Les systèmes de gestion du cycle de vie des contrats (CLM) alimentés par l’IA soulèvent la conformité et les préoccupations juridiques liées à la confidentialité des données, à l’adhésion réglementaire, au biais et à la responsabilité, en particulier dans les industries réglementées telles que les services bancaires, les services financiers, les soins de santé, les sciences de la vie et les sciences juridiques», a ajouté Kaushal. «Ces systèmes traitent des informations contractuelles sensibles, augmentant les risques en vertu de lois telles que le RGPD, le CCPA, le HIPAA et les SOX, qui imposent des exigences strictes sur la protection des données et le contrôle d’accès.»
Kaushal a également souligné que les recommandations contractuelles générées par l’IA pourraient introduire des incertitudes légales. «Les recommandations contractuelles générées par l’IA peuvent également manquer de responsabilité juridique, ce qui entraîne des litiges si des conditions incorrectes sont appliquées. De plus, les modèles d’IA formés sur des données biaisées ou obsolètes peuvent introduire des incohérences contractuelles et des termes déloyaux, augmentant les risques de litige. Les entreprises mettent donc l’accent sur la transparence et l’explication pour évaluer l’efficacité de la réponse générée par l’AI. »
Équilibrer l’efficacité de l’IA et la prudence
L’intelligence contractuelle axée sur l’IA d’Adobe est positionnée comme un outil transformateur pour les entreprises qui cherchent à rationaliser les flux de travail et à atténuer les risques juridiques. Cependant, à mesure que le rôle de l’IA dans la gestion des contrats se développe, les organisations doivent équilibrer l’automatisation avec la surveillance humaine pour garantir la conformité, la précision et la responsabilité.