La société mère de Facebook, Meta, a déployé cette semaine des plans pour divers chatbots destinés aux consommateurs américains, intégrés dans des applications spécifiques, notamment WhatsApp, Messenger et Instagram.
Le nouveau bot Meta AI, actuellement en version bêta, est alimenté par diverses itérations du grand modèle de langage (LLM) de Meta Llama 2. La différence entre le LLM de Meta et le GPT 4 d’OpenAI – le LLM derrière ChatGPT – semble être la personnalisation à des fins spécifiques à l’application.
“Je pense que l’aspect important de cette annonce est qu’ils n’utilisent pas un modèle à usage général, pour ainsi dire”, a déclaré Arun Chandrasekaran, vice-président distingué de Gartner. “Ils créent plusieurs modèles différents pour différentes applications. Par exemple, le L’utilisateur et le cas d’utilisation d’Instagram sont très différents d’un utilisateur et du cas d’utilisation de WhatsApp.
“En un mot, ils ne construisent pas vraiment un chatbot à usage général comme ChatGPT”, a déclaré Chandrasekaran. “C’est une chose que Meta fait très différemment.”
Les LLM utilisés pour les outils d’IA générative peuvent consommer de grandes quantités de cycles de processeur et être coûteux à utiliser. En fait, l’industrie des semi-conducteurs est actuellement incapable de répondre aux besoins du secteur en pleine croissance de l’IA. (Des modèles plus petits et davantage axés sur l’industrie ou l’entreprise peuvent souvent fournir de meilleurs résultats adaptés aux besoins de l’entreprise.)
Meta dispose d’un Llama LLM à usage général, avec plus de 400 milliards de paramètres. Mais un livre blanc publié avec le lancement du chatbot Meta AI indique qu’il existe, entre autres, des modèles plus petits de 7 milliards et 13 milliards de paramètres. Moins il y a de paramètres, plus un LLM peut être efficace et personnalisé sans imposer de contraintes supplémentaires aux cycles du processeur du serveur.
“La surcharge de mémoire GPU est négligeable…”, a déclaré Meta dans le livre blanc en faisant référence à la formation de ses modèles.
En plus de fournir des réponses textuelles, le chatbot Meta AI peut également accéder au moteur de recherche Bing pour obtenir des informations en temps réel qu’il peut utiliser pour générer des images « photoréalistes » à partir d’invites de texte à partager pendant les discussions. Par exemple, si une discussion de groupe discute du point de départ à essayer à Santa Cruz, en Californie, Meta AI pourrait automatiquement afficher des options dans la discussion, permettant aux membres du groupe d’explorer des emplacements, selon Meta.
Meta a également créé 28 chatbots basés sur l’IA, joués par des célébrités et des icônes culturelles telles que Snoop Dogg, Tom Brady, Kendall Jenner, Paris Hilton et Roy Choi. Les chatbots de célébrités peuvent offrir des conseils sur l’entraînement physique, des suggestions culinaires, de l’aide pour le bricolage ou – dans le cas de l’ancien quart-arrière de la NFL, Tom Brady (dont le personnage du chatbot s’appelle « Bru ») – être un débatteur sportif farfelu « qui ne fait rien ».
Meta prévoit d’ajouter de nouveaux personnages de chatbot dans les semaines à venir, interprétés par Bear Grylls, Chloe Kim, Josh Richards et d’autres.
« Notre aventure avec l’IA ne fait que commencer, et il ne s’agit pas uniquement de créer des IA qui répondent uniquement à des questions. Nous avons créé des IA qui ont plus de personnalité, d’opinions et d’intérêts, et avec lesquelles il est un peu plus amusant d’interagir », a déclaré Meta dans son annonce. «En plus de Meta AI, il existe 28 autres IA avec lesquelles vous pouvez envoyer des messages sur WhatsApp, Messenger et Instagram. Vous pouvez considérer ces IA comme un nouveau groupe de personnages, tous avec des histoires uniques.
Meta a annoncé le déploiement de son chatbot IA sur les lunettes intelligentes Ray-Ban Meta et les casques de réalité virtuelle Quest 3.
Pour ne pas être en reste, OpenAI a répondu mercredi que son robot ChatGPT avait désormais la capacité d’effectuer des recherches sur le Web à l’aide de Bing pour la création de voix et d’images, ce qui lui permet de rivaliser avec le moteur de recherche assisté par l’IA de Microsoft et le chatbot Bard de Google. (La technologie d’IA de Microsoft est basée sur la technologie de chatbot d’OpenAI.)
“Nous commençons à déployer de nouvelles fonctionnalités vocales et d’image dans ChatGPT”, a déclaré OpenAI dans son annonce. “Ils offrent un nouveau type d’interface plus intuitif en vous permettant d’avoir une conversation vocale ou de montrer à ChatGPT de quoi vous parlez. . Nous déploierons la voix et les images dans ChatGPT auprès des utilisateurs Plus et Enterprise au cours des deux prochaines semaines. Voice arrive sur iOS et Android (opt-in dans vos paramètres) et les images seront disponibles sur toutes les plateformes.
Un utilisateur pourrait avoir une conversation avec ChatGPT, lui demander des faits lors d’un débat à l’heure du dîner ou lui faire gérer des choses telles qu’une histoire au coucher pour les enfants. Un utilisateur de ChatGPT peut également prendre une photo d’un point de repère lors d’un voyage et avoir une conversation en direct avec le bot sur ce qui rend l’emplacement intéressant.
« Lorsque vous êtes à la maison, prenez des photos de votre réfrigérateur et de votre garde-manger pour savoir ce qu’il y a pour le dîner (et posez des questions de suivi pour une recette étape par étape). Après le dîner, aidez votre enfant à résoudre un problème de mathématiques en prenant une photo, en encerclant l’ensemble du problème et en lui demandant de partager des indices avec vous deux », a déclaré OpenAI.
Avant cette semaine, ChatGPT permettait aux abonnés payants de connecter des plug-ins de navigateur tiers pour permettre au chatbot d’effectuer des recherches sur le Web. La dernière mise à jour permet nativement cette fonction.
En février, Microsoft est devenu le premier à lancer son outil de recherche connecté au Web, alimenté par Bing AI, basé sur GPT LLM d’OpenAI, un concurrent du principal moteur de recherche de Google.
Outre les modèles spécifiques aux applications, un autre aspect qui distingue Meta des autres sociétés de médias sociaux proposant des outils d’IA est le laboratoire de recherche en IA de Facebook, l’une des principales institutions d’apprentissage automatique. Le laboratoire est dirigé par Yann LeCun, scientifique en chef de Meta AI, qui est également considéré comme l’un des pères de l’apprentissage profond, selon Chandrasekaran de Gartner.
« Vont-ils réussir complètement dans la première version ? Nous ne le savons pas. C’est super dur », a déclaré Chandrasekaran. “Cela dit, j’aime la façon dont ils procèdent, plutôt que de créer un chatbot à usage général, ils essaient de l’intégrer en profondeur dans le flux de travail et le paysage applicatif.”
Meta a également été actif dans l’espace de l’IA communautaire open source. Par exemple, la société a créé des modèles d’IA générative open source comparables aux modèles GPT 3.5 et GPT 4 d’OpenAI, selon Chandrasekaran. “Donc, ils essaient également de faire les choses un peu différemment, de manière plus open source dans cet écosystème, ce qui est également remarquable.
“Meta n’a jamais été un acteur professionnel, mais avec certains de ces efforts open source, certaines des grandes entreprises clientes avec lesquelles nous discutons – comme les grandes banques – commencent toutes à se pencher sur le modèle de Meta AI dans cet espace”, a déclaré Chandrasekaran. .