WWDC 2024 : Apple est-il en route vers Siri 2.0 ?

Alors qu’Apple dépense beaucoup d’argent en modèles d’IA générative et d’apprentissage automatique, est-il temps pour nous de commencer à préparer Siri 2.0 ?

L’information affirme qu’Apple a « considérablement » augmenté ses dépenses en matière de développement de l’IA en se concentrant sur les capacités genAI au sein de Siri. Le rapport suggère que les efforts de recherche internes d’Apple en matière d’IA vont dans trois directions clés :

  • Création d’« Ajax », son propre modèle de langage étendu (LLM) propriétaire. Celui-ci a déjà été entraîné sur plus de 200 milliards de paramètres, ce qui pourrait le rendre plus puissant que Chat GPT 3.5 lors de son apparition. Apple dépenserait des millions par jour pour Ajax.
  • Apple continue de développer l’intelligence artificielle des images, qui s’étend à la génération d’images et de vidéos et à la création de scènes 3D.
  • Un troisième groupe travaille sur l’IA multimodale, traitant du texte, des images et de la vidéo. Je m’attends à ce que cela inclut des fonctionnalités telles que la numérisation de texte dans les images et la reconnaissance des portes.

En route vers Siri 2.0

Il semble qu’Apple soit légèrement piqué par les critiques concernant ses réalisations en matière d’IA jusqu’à présent. Dans cette optique, il souhaite :

  • Améliorez les capacités conversationnelles de Siri.
  • Développez des fonctionnalités d’assistant utiles qui s’appuient sur l’IA.
  • Introduisez la prise en charge de tâches complexes dans Siri, telles que la reconnaissance d’images ou de texte, la génération de scènes, etc.
  • Et potentiellement permettre d’utiliser la voix pour créer des fonctions de raccourcis.

S’il est vrai que ChatGPT a surpris presque tout le monde, Apple a semblé le plus laissé pour compte une fois ce chatbot apparu. Le fabricant d’iPhone semble avoir accéléré ces développements et pourrait même avoir ces fonctionnalités prêtes à être déployées dans iOS 18, selon le rapport. Les travaux sont dirigés par une nouvelle équipe d’ingénieurs de 16 membres qui construisent le LLM « modèle fondamental » que l’entreprise utilisera pour construire des modèles, pour un coût de plusieurs millions de dollars chaque jour.

Bonnes fondations

La création de modèles puissants basés sur LLM dans Siri peut être un peu compliquée par l’engagement de l’entreprise envers la confidentialité des clients. Cela implique que quels que soient les modèles déployés, ils utiliseront principalement les fonctionnalités qui existent déjà sur leurs appareils. C’est là qu’une meilleure intégration avec les raccourcis prend tout son sens, même si l’entreprise n’en dépend peut-être pas entièrement. Pourquoi? Parce que chaque puce Apple intègre également un Neural Engine, un espace dédié sur la puce pour gérer les tâches d’intelligence artificielle.

Le problème est que les LLM existants d’Apple sont assez volumineux, ce qui signifie qu’ils seraient difficiles à transporter et à exécuter sur l’appareil. Cette limitation suggère que l’entreprise pourrait développer des automatisations très ciblées, capables de bien fonctionner sur les appareils dans certains domaines, et utilisées conjointement avec des systèmes basés sur le cloud pour des tâches plus complexes ; cela pourrait nuire au travail environnemental d’Apple, étant donné l’énergie et l’eau que ces machines consomment.

Créer des choses réellement utiles

Les équipes d’Apple seront-elles capables de trouver utilement comment exploiter intelligemment les données de comportement des utilisateurs détenues par chaque appareil tout en les gardant privées ? Est-il même possible de créer des modèles d’IA capables d’utiliser les données de manière privée en les traitant sur l’appareil ?

L’entreprise le fait déjà dans une certaine mesure : rappels du moment de se déplacer pour se rendre à l’heure aux réunions, reconnaissance des communications entrantes des contacts clés ou même des tendances en matière de condition physique personnelle liées à la santé, par exemple.

Toutes les solutions ne doivent pas nécessairement être intégrées à l’appareil. L’information suggère qu’un assistant Apple Care AI pourrait être en cours de développement, ce qui aiderait essentiellement à trier les requêtes des utilisateurs pour les diriger vers des solutions qu’ils peuvent suivre eux-mêmes ou les diriger vers les agents d’assistance humaine concernés.

Mais Apple voudra faire plus et s’assurer que les outils d’IA qu’il déploie sont réellement utiles à ses clients et fonctionnent bien lorsqu’ils sont entièrement gérés sur l’appareil. Tout ce qu’il créera sera conçu pour prendre en charge l’expérience utilisateur, plutôt que pour exploiter les données des utilisateurs.

En route vers la WWDC 2024 ?

Ces investissements majeurs dans l’Ajax LLM mais aussi dans l’intelligence visuelle et l’IA multimodale, semblent sur la voie rapide. Cela suggère que Siri 2.0 pourrait être l’un des grands thèmes de la WWDC 2024. Ensemble, il sera intéressant de voir dans quelle mesure ces outils évoluent pour prendre en charge la plate-forme visionOS « Spatial Computing » que l’entreprise est en train de construire.

Veuillez me suivre sur Mastodon ou rejoignez-moi dans les groupes bar & grill et Apple Discussions d’AppleHolic sur MeWe.

Copyright © 2023 IDG Communications, Inc.

Source link

Partager Cet Article
Quitter la version mobile