L’IA générative (genAI) envahit l’industrie technologique. Du Copilot, assistant genAI devenu thérapeute de Microsoft épinglé à la barre des tâches Windows au système d’exploitation Android de Google « conçu avec l’IA en son cœur », vous ne pouvez plus installer de mise à jour logicielle sans obtenir une nouvelle fonctionnalité d’IA géniale qui promet d’augmenter votre productivité.
Mais lorsque vous parlez à l’IA, vous ne parlez pas seulement à l’IA. Un humain pourrait très bien examiner vos conversations, ce qui signifie qu’elles ne sont pas aussi privées qu’on pourrait l’imaginer. C’est un gros problème pour les entreprises travaillant avec des informations sensibles ainsi que pour les personnes qui posent des questions sur des problèmes médicaux, des problèmes personnels ou tout autre sujet dont elles ne souhaitent pas que quelqu’un d’autre soit au courant.
Certaines entreprises d’IA entraînent leurs grands modèles de langage (LLM) sur la base de conversations. Il s’agit d’une préoccupation courante : les données de votre entreprise ou vos informations personnelles pourraient faire partie d’un modèle et être divulguées à d’autres personnes. Mais il y a tout un autre préoccupation au-delà de cela, et cela pourrait être un problème même si votre fournisseur d’IA promet de ne jamais former ses modèles sur les données que vous lui fournissez.