La société technologique française Mistral AI a lancé un nouvel outil de modération en ligne basé sur le modèle d’IA Ministral 8B qui peut détecter et supprimer automatiquement les publications offensantes ou illégales. (Il existe néanmoins un risque d’erreurs d’appréciation.)
Selon Techcrunch, par exemple, certaines études ont montré que les publications sur les personnes handicapées peuvent être signalées comme « négatives » ou « toxiques », même si ce n’est pas le cas.
Dans un premier temps, le nouvel outil de modération de Mistral prendra en charge l’arabe, l’anglais, le français, l’italien, le japonais, le chinois, le coréen, le portugais, le russe, l’espagnol et l’allemand, et d’autres langues seront bientôt disponibles. Mistral a lancé en juillet un grand modèle de langage capable de générer des tranches de code plus longues plus rapidement que les autres modèles open source.