Pourquoi pensez-vous que cette période d’embauche a été l’une des plus uniques au cours de la dernière décennie, et comment l’IA a-t-elle affecté cela ces derniers temps ? « Je pense fondamentalement que nous avons eu un changement de plateforme. Nous avons eu cela autour du mobile. Nous avons eu cela autour du commerce électronique. Ou, si vous remontez assez loin, nous avons connu ce passage des mainframes aux clients-serveurs. Donc, je le crois [AI] est fondamentalement un changement de plateforme.
« De ce point de vue, la chose la plus critique lorsque je m’assois avec des clients, je leur demande toujours : « Comment vont vos données ? Nous savons tous que personne ne dispose de données parfaites. Dans le monde de l’IA, les données vont devenir encore plus importantes. S’il était difficile de gérer vos données auparavant (pensez aux bases de données graphiques et aux bases de données vectorielles), nous constatons en réalité de nombreux investissements de la part des entreprises pour adapter leurs données à l’IA ; cela se traduit par la garantie que vous disposez des bonnes ressources : architectes de données, analystes, ingénieurs en IA et tous les types de postes qui les pilotent.
De nombreuses organisations s’appuient sur des services d’IA basés sur le cloud, tels que Microsoft, Oracle, Amazon et Google. Constatez-vous une augmentation de l’utilisation de petits modèles de langage propriétaires basés sur l’open source par rapport à ces grands modèles de langage (LLM) proposés via des services de type SaaS ? «Je pense que c’est les deux. Je pense qu’il est encore très tôt. Je pense que la plupart des entreprises continuent de travailler avec de grands modèles linguistiques et je pense que ce sera la tendance à court terme. La plupart des principaux fournisseurs de cloud, même Frontier [companies]construisent également de petits modèles. Je pense qu’avec le temps, vous constaterez que la spécialisation, la verticalisation et les petits modèles revêtent une valeur distincte.