L’IA Copilot de Microsoft devrait fonctionner localement sur les futurs PC, selon Intel

L’IA Copilot de Microsoft pourrait bientôt fonctionner localement sur des PC plutôt que de s’appuyer sur le cloud.

Intel a déclaré à Tom’s Hardware que le chatbot pourrait fonctionner sur de futurs PC compatibles avec l’IA qui devraient intégrer des unités de traitement neuronal (NPU) capables de dépasser 40 000 milliards d’opérations par seconde (TOPS) – un niveau de performance encore inégalé par aucun processeur grand public actuellement disponible. .

Intel a mentionné que ces PC IA seraient équipés pour gérer « plus d’éléments de Copilot » directement sur la machine. Copilot s’appuie actuellement principalement sur le traitement cloud pour la plupart des tâches, ce qui entraîne des retards notables, notamment pour les demandes mineures. L’amélioration de la puissance de calcul locale devrait réduire ces retards, améliorant potentiellement les performances et la confidentialité.

Intel n’a pas immédiatement répondu à une demande de commentaire de Computerworld.

Copilote sur votre PC

Comme indiqué précédemment, l’utilisation de Copilot sur Windows 11, ChatGPT, Adobe Firefly ou d’outils genAI similaires ne traite pas réellement les tâches sur votre ordinateur, mais plutôt dans des centres de données distants utilisant des ressources et de l’électricité importantes. Bien qu’il soit possible d’exécuter localement des applications telles que le modèle texte-image à diffusion stable ou le modèle de langage Llama, l’obtention de résultats de haute qualité nécessite généralement un PC doté de capacités de traitement substantielles, en particulier un GPU haute vitesse, auparavant recherché pour l’extraction de crypto-monnaie. .

Les progrès récents en matière de matériel, en particulier l’inclusion d’unités de traitement neuronal dans les dernières puces Intel Meteor Lake et les offres d’AMD, ont suscité des discussions sur les PC alimentés par l’IA. Ces NPU, conçus comme des composants dédiés à faible consommation, visent à faciliter l’exécution locale de modèles d’IA génératifs, améliorant ainsi l’efficacité du traitement de l’IA. On s’attend à ce que les NPU deviennent une fonctionnalité standard dans les futurs PC, permettant aux tâches genAI de fonctionner de manière transparente en arrière-plan, même sur batterie.

Par exemple, le dernier moteur d’IA de MSI reconnaît les activités de votre ordinateur portable et ajuste automatiquement le profil de la batterie, la vitesse du ventilateur et les paramètres de l’écran en fonction de votre tâche. Lorsque vous jouez, cela augmente les performances au maximum ; passez au travail sur des documents Word, et il rappelle tout.

L’IA en déplacement

La tendance locale en matière d’IA ne se limite pas aux PC. Par exemple, les smartphones Pixel 8 et Pixel 8 Pro de Google sont équipés de la puce Tensor G3, qui, selon Google, ouvre la voie à l’IA générative sur l’appareil. Cette technologie prend déjà en charge des fonctionnalités basées sur l’IA telles que le résumé audio dans l’application Recorder et la génération de réponses intelligentes dans le clavier Gboard. Cependant, malgré ces progrès, ce matériel n’est actuellement pas capable d’exécuter localement des modèles d’IA étendus tels que Bard AI, Copilot ou ChatGPT de Google. Au lieu de cela, ces appareils exécutent des modèles plus compacts.

L’un des avantages du traitement local de l’IA est qu’il pourrait améliorer la cybersécurité. Le consultant en cybersécurité John Bambenek a souligné que l’un des risques importants auxquels les entreprises sont confrontées lors de l’intégration de l’IA dans les tâches de propriété intellectuelle est la gestion du flux et de l’accès aux données.

“Nous avons vu suffisamment de violations de services cloud par des tiers pour savoir que même avec des promesses, les données peuvent être perdues”, a-t-il ajouté. « Si les organisations peuvent utiliser Copilot AI de Microsoft localement, les RSSI auront toujours le sentiment de contrôler leurs données, et cela éliminera ce qui est probablement le plus grand obstacle à l’adoption qui existe. »

Partager Cet Article
Quitter la version mobile