L’utilisation généralisée de l’intelligence artificielle provoque des perturbations dans les entreprises de tous les secteurs. En conséquence, la plupart des entreprises conservent une partie ou la totalité de leur formation et de leurs inférences sur les modèles d’IA sur site pour diverses raisons. Beaucoup constatent que leur infrastructure existante n’est pas adéquate et ne peut pas supporter ces nouvelles charges de travail.
Même si une grande attention s’est concentrée sur la satisfaction des exigences de calcul de l’IA, il existe des problèmes comparables (et tout aussi difficiles à résoudre) en matière de réseau et de stockage.
Infrastructure 2024 pour les défis et solutions de l’IA
De nombreux articles sur l’informatique en réseau en 2024 se sont concentrés sur la satisfaction des exigences d’infrastructure de l’IA. Vous trouverez ci-dessous une liste de nos 5 meilleurs articles de l’année, avec un bref résumé de chaque article.
1) Ethernet tient sa place dans les environnements de calcul IA exigeants
Les charges de travail d’IA imposent de nouvelles exigences aux éléments du réseau dans un centre de données. Ethernet reste une option viable car il s’avère être une solution robuste et rentable pour gérer les exigences réseau exigeantes des charges de travail d’IA. Bien que des alternatives comme InfiniBand offrent des performances élevées, elles présentent des défis tels qu’une augmentation des coûts et de la complexité.
Ethernet, avec son adoption généralisée et sa simplicité, est activement amélioré pour répondre aux demandes d’IA grâce à des initiatives telles que l’Ultra Ethernet Consortium, dirigé par AMD, Cisco, Intel et Microsoft. Ce consortium se concentre sur l’optimisation des performances d’Ethernet pour les tâches à faible latence et à bande passante élevée en résolvant des problèmes critiques tels que la latence de queue et en améliorant l’efficacité du flux de paquets. Pour les responsables informatiques, cela signifie qu’ils peuvent s’appuyer sur l’infrastructure Ethernet existante tout en maîtrisant les coûts et la complexité, permettant ainsi une prise en charge évolutive de leurs efforts croissants en matière d’IA.
2) Rapport Cisco : les entreprises sont mal préparées à exploiter le potentiel de l’IA
Le récent Cisco Rapport de préparation à l’IA 2024 ont constaté que seulement 13 % des organisations sont pleinement préparées à exploiter le potentiel de l’IA. La plupart des entreprises présentent des lacunes importantes en matière d’infrastructure, de compétences et de qualité des données. Notamment, 79 % des entreprises ne disposent pas de suffisamment de GPU pour répondre aux demandes actuelles et futures en matière d’IA, et 24 % signalent une expertise insuffisante en matière d’IA au sein de leur personnel. De plus, 80 % d’entre elles sont confrontées à des défis en matière de prétraitement et de nettoyage des données, ce qui est essentiel pour une mise en œuvre efficace de l’IA. Malgré ces obstacles, 98 % des organisations reconnaissent qu’il est de plus en plus urgent d’adopter les technologies d’IA, et 85 % d’entre elles visent à démontrer l’impact commercial de l’IA dans un délai de 18 mois. Pour les responsables informatiques des grandes entreprises, cela souligne la nécessité d’investir dans l’infrastructure de l’IA, de former des talents spécialisés et de garantir des données de haute qualité pour intégrer avec succès l’IA dans les opérations commerciales.
3) Orientations des centres de données : les serveurs et l’infrastructure pour l’IA générative alimentent la croissance future
L’adoption rapide de l’IA générative a un impact significatif sur l’infrastructure des centres de données, les achats mondiaux de centres de données ayant augmenté de 38 % d’une année sur l’autre au premier semestre 2024, principalement en raison des serveurs accélérés par l’IA. C’est ce qui ressort d’une étude de marché réalisée par Groupe Dell’Oro. Cette hausse devrait se poursuivre, les projections indiquant une augmentation de 35 % des dépenses en infrastructure des centres de données, dépassant les 400 milliards de dollars d’ici la fin de l’année. Cette croissance est motivée par la nécessité d’investir dans des serveurs et des équipements réseau avancés pour prendre en charge efficacement les charges de travail d’IA.
4) Prise en charge réseau pour l’IA
L’adoption de l’IA dans les grandes entreprises impose des exigences sans précédent à l’infrastructure réseau, obligeant les responsables informatiques à réévaluer leurs stratégies en matière d’évolutivité, de bande passante et de latence. Les charges de travail d’IA, en particulier dans la formation de modèles et l’inférence, génèrent d’immenses volumes de données qui nécessitent des réseaux hautes performances et à faible latence, capables d’assurer une communication transparente entre les GPU et les systèmes de stockage. Les technologies telles qu’Ethernet et InfiniBand sont de plus en plus évaluées pour leur capacité à gérer ces charges de travail, les améliorations apportées à Ethernet s’avérant prometteuses en matière d’équilibre entre performances et coûts. Pour les responsables informatiques, s’assurer que leurs réseaux peuvent répondre aux exigences de l’IA implique de planifier un matériel de plus grande capacité, un équilibrage de charge avancé et une optimisation du réseau pour permettre un déploiement efficace et rentable des applications d’IA dans l’ensemble de leurs entreprises.
5) Dell, Deloitte et NVIDIA déploient une nouvelle infrastructure AI Factory
Dell Technologies, Deloitte et NVIDIA ont collaboré pour introduire des Usine d’IA solutions d’infrastructure, visant à rationaliser le déploiement et la gestion des charges de travail d’IA pour les grandes entreprises. Le concept d’usine d’IA est similaire aux approches antérieures adoptées par l’industrie pour tenter de prendre en charge les charges de travail HPC dans des entreprises qui n’avaient normalement pas besoin d’une telle capacité de calcul. À l’époque, les fournisseurs et fournisseurs de solutions proposaient des systèmes HPC clé en main. De même, aujourd’hui, Dell Technologies, Deloitte, NVIDIA et d’autres intègrent étroitement les éléments de calcul, de stockage et de réseau de manière à optimiser l’ensemble d’un système pour les charges de travail d’IA.
Un dernier mot sur l’infrastructure pour l’IA
Satisfaire aux besoins d’infrastructure de l’IA sera un problème constant en 2025 et dans les années à venir. Il y aura un flux constant de nouvelles solutions et d’innovations de la part de principaux fournisseurs et groupes industriels tels que l’Ultra Ethernet Consortium.
Suivez notre couverture de infrastructure pour l’IA pour se tenir au courant de ces évolutions.