Slack a pris note des préoccupations des utilisateurs et a reconnu que la formulation précédente de ses principes de confidentialité avait contribué à cette situation. “Nous apprécions les commentaires, et en examinant le langage utilisé sur notre site Web, nous avons réalisé qu’ils avaient raison”, a déclaré Slack dans un article de blog vendredi. « Nous aurions pu mieux expliquer notre approche, notamment en ce qui concerne les différences dans la façon dont les données sont utilisées pour les modèles d’apprentissage automatique (ML) traditionnels et dans l’IA générative. »
« Les principes de confidentialité de Slack devraient l’aider à répondre aux préoccupations qui pourraient potentiellement bloquer l’adoption des initiatives genAI », a déclaré Raúl Castañón, analyste de recherche principal chez 451 Research, qui fait partie de S&P Global Market Intelligence.
Cependant, Slack continue d’accepter les clients par défaut lorsqu’il s’agit de partager des données utilisateur avec les algorithmes AI/ML. Pour se désinscrire, l’administrateur Slack d’une organisation cliente doit envoyer un e-mail à l’entreprise pour demander que ses données ne soient plus accessibles.
Castañón a déclaré que la position de Slack ne dissiperait probablement pas les inquiétudes concernant la confidentialité des données alors que les entreprises commencent à déployer des outils genAI. “De la même manière que pour les questions de confidentialité des consommateurs, même si une approche opt-in est considérablement moins susceptible d’obtenir une réponse, elle véhicule généralement plus de fiabilité”, a-t-il déclaré.
Une enquête récente du cabinet d’analyse Metrigy a montré que l’utilisation des données clients pour former des modèles d’IA est la norme : 73 % des organisations interrogées forment ou envisagent de former des modèles d’IA sur les données clients.
« Idéalement, la formation serait facultative et non facultative, et des entreprises comme Slack/Salesforce informeraient de manière proactive les clients des spécificités des données utilisées et de la manière dont elles sont utilisées », a déclaré Irwin Lazar, président et analyste principal. à Métrigy. “Je pense que les problèmes de confidentialité liés à la formation en IA ne feront que croître et que les entreprises seront de plus en plus confrontées à des réactions négatives si elles ne communiquent pas clairement sur l’utilisation des données et les méthodes de formation.”