Il se passe beaucoup de choses avec l’IA en ce moment. Vous ne pouvez pas lire un article ou un blog sans que cela soit mentionné. Une grande partie des discussions autour de l’IA portent sur l’expérience utilisateur et sur la façon dont elle changera nos vies et nos emplois du point de vue de la productivité. Tout cela est vrai, mais on ne parle pas autant de l’impact des applications d’IA sur le réseau. Et croyez-moi, ça l’est.
Nos recherches les plus récentes indique que les organisations allouent en moyenne 18 % de leur budget informatique uniquement à l’IA. Sur ce montant, 18 % sont destinés aux modèles et 9 % aux GPU. Les organisations investissent clairement dans le développement de leurs capacités d’IA, avec un pourcentage important (60 %) d’achats GPU à mettre sur site. Cela implique des changements assez importants dans le centre de données.
Ce n’est probablement pas une surprise, car l’ensemble de l’architecture du centre de données est impacté par l’IA. Plus précisément, la manière dont les complexes de calcul d’IA sont conçus et construits (c’est à cela que servent ces GPU, après tout). Il se passe beaucoup de choses, y compris un une nouvelle dispute se prépare entre tout le monde et NVIDIA. Cela s’apparente aux guerres de protocoles qui ont conduit TCP/IP à devenir la norme pour la mise en réseau dans les centres de données.
Et bien que cette dispute se concentre sur les interconnexions GPU au sein d’un « pod » d’IA (essentiellement un cluster Kubernetes composé de serveurs d’inférence et de nombreux GPU, CPU et autres PU), il y a aussi la nouvelle interconnexion entre ces derniers. Calcul de l’IA complexes et le reste du centre de données.
L’IA entraîne la bifurcation des centres de données
Le centre de données se divise en deux complexes informatiques distincts : l’un axé sur les applications (qui peuvent ou non utiliser l’IA) et un complexe de calcul d’IA dans lequel l’inférence est exécutée à grande échelle.
Il y a beaucoup à déballer ici, le moindre n’étant pas l’introduction d’un deuxième point d’insertion NS à l’intérieur le centre de données pour le trafic IA. C’est à ce moment-là que le trafic passe du centre de données existant au complexe informatique de l’IA. Comme pour toute nouvelle interconnexion, un certain nombre de besoins en matière de réseau et de couche application doivent être pris en compte, tels que :
Intégration de routage dynamique pour la résilience et la répartition de la charge de service
Isolation du réseau par locataire pour les entrées et sorties pour toute charge de travail K8
Capacités CGNAT avancées
Pare-feu réseau par locataire
Il existe tous les services réseau attendus requis pour le trafic traversant deux « environnements », ainsi qu’une gestion utile du trafic réseau de couche supérieure (L4-7) pour empêcher les serveurs d’inférence d’être submergés par les demandes.
Notez que la plupart de ces fonctions ne sont pas vos fonctions typiques de « contrôle d’entrée », malgré la vue de dix mille pieds selon laquelle le trafic passe probablement d’un cluster Kubernetes à un autre. L’interconnexion nécessite ici quelque chose de plus robuste que le simple routage. L’accent est clairement mis sur les capacités réseau communes à la plupart des interconnexions des centres de données.
L’isolation du réseau par locataire n’est peut-être pas une exigence typique d’une entreprise, mais l’IA en fait plus qu’une simple nécessité pour les fournisseurs de services et de cloud. Les constructions de réseau et d’architecture basées sur chaque locataire seront de plus en plus importantes à l’ère de l’IA pour permettre aux entreprises de prioriser les charges de travail d’IA, comme l’automatisation et l’analyse opérationnelle, afin de s’assurer qu’elles ne sont pas étouffées par des charges de travail d’IA moins prioritaires.
J’ai parlé (et parlé et parlé) de la nécessité de moderniser les infrastructures dans le passé. Cela inclut – et se concentre en fait sur – le réseau. Il n’existe aujourd’hui aucune application, aucun outil ou technologie qui ne repose pas sur le réseau. Toutes les applications, et en particulier les applications d’IA, ont besoin d’une base flexible sur laquelle offrir leur valeur numérique aux utilisateurs. Cette base est le réseau, et c’est l’une des raisons pour lesquelles nous considérons la distribution et l’automatisation de l’infrastructure comme des capacités techniques clés nécessaires à toute organisation pour devenir une entreprise numérique.
L’IA va avoir un impact sur le réseau de plusieurs manières. Mais l’expansion de la voie de circulation NS et la lutte pour Interconnexion de calcul IA sont deux des plus importants à l’heure actuelle. Parce qu’ensemble, ils détermineront l’orientation des architectures de centres de données de nouvelle génération.
Articles Liés: