Les grands modèles défient les médias sociaux et la XR : dialogue entre Zuckerberg et Jensen Huang

Créer un modèle open source d'une valeur de plusieurs milliards de dollars est une stratégie commerciale soigneusement élaborée.

Voici la traduction en français :

01 Former de grands modèles est coûteux, comment Meta va-t-il rentabiliser son investissement ?

L'activité "machine à imprimer de l'argent" de Meta - les flux d'informations et les systèmes de recommandation - est en train d'être "ébranlée" par les grands modèles

Jensen Huang : Mark, bienvenue à ta première participation à SIGGRAPH. Peux-tu y croire ? En tant que l'un des pionniers de l'informatique et moteur de l'informatique moderne, je dois t'inviter à SIGGRAPH, je suis ravi que tu sois là.

Zuckerberg : Oui, ça devrait être intéressant. Tu as déjà parlé pendant environ cinq heures, n'est-ce pas ?

Jensen Huang : Oui, c'est SIGGRAPH, 90% des gens ici sont des docteurs. Ce qui est génial avec SIGGRAPH, c'est que c'est un salon qui combine l'infographie, le traitement d'images, l'intelligence artificielle et la robotique. Au fil des ans, de nombreuses entreprises ont présenté et révélé des choses étonnantes ici, comme Disney, Pixar, Adobe, Epic Games, et bien sûr NVIDIA.

Nous avons fait beaucoup de travail ici cette année : nous avons publié 20 articles à l'intersection de l'IA et de la simulation ; nous utilisons l'IA pour aider la simulation à fonctionner à plus grande échelle et plus rapidement. Par exemple, la physique différentiable, nous utilisons la simulation pour créer des environnements simulés pour l'IA, pour la génération de données synthétiques, ces deux domaines fusionnent vraiment.

Meta a en fait fait un travail incroyable en matière d'IA. Je trouve intéressant que lorsque les médias écrivent sur l'investissement soudain de Meta dans l'IA ces dernières années, ils semblent ignorer les réalisations passées de FAIR (Facebook AI Research, le département de recherche en IA de Meta, fondé en 2013). En fait, nous utilisons tous PyTorch, le framework d'apprentissage profond open source de Meta (un outil indispensable pour la recherche et le développement en IA), et le travail de Meta en vision par ordinateur, modèles de langage et traduction en temps réel a été pionnier.

La première question que je veux te poser est : comment vois-tu les progrès de Meta en IA générative ? Comment cela va-t-il améliorer votre activité ou apporter de nouvelles capacités ?

Zuckerberg : Comparé à vous, nous sommes encore des novices. Mais Meta participe à SIGGRAPH depuis huit ans. En 2018, nous avons présenté pour la première fois certains de nos travaux sur le suivi des mains pour nos casques VR et de réalité mixte. Nous avons également beaucoup discuté des progrès réalisés dans les avatars codec, utilisés pour afficher des avatars réalistes dans les casques grand public.

Il y a aussi beaucoup de travail que nous avons fait sur les systèmes d'affichage, certains prototypes et recherches futurs, pour rendre les casques de réalité mixte très fins. Ce que je veux, ce sont des piles optiques, des systèmes d'affichage et des systèmes intégrés très avancés.

Je suis donc ravi d'être ici, cette année, pour parler non seulement du métavers, mais aussi de tout ce qui concerne l'IA. Comme tu l'as dit, nous avons créé FAIR avant de commencer Reality Labs (le département de R&D du métavers de Meta), à l'époque où nous nous appelions encore Facebook, maintenant bien sûr Meta. Donc en IA, nous avons des années d'expérience.

Concernant l'IA générative, c'est une révolution intéressante, je pense qu'elle finira par transformer radicalement tous les produits que nous faisons. Par exemple, les flux d'informations et les systèmes de recommandation d'Instagram et Facebook, que nous avons fait évoluer pendant des décennies, l'IA va les transformer davantage.

À l'origine, les flux d'informations ne concernaient que les connexions avec les amis, et dans ce cas, le classement du flux était crucial. Parce que si quelqu'un fait quelque chose de très important, comme ton cousin qui a un bébé ou quelque chose comme ça, tu veux que ça apparaisse en haut. Si nous l'enfouissons quelque part dans ton flux, tu seras très en colère.

Mais ces dernières années, les flux ont évolué vers une autre phase, où le contenu que tu veux voir concerne davantage le contenu public. Dans ce cas, les systèmes de recommandation deviennent super importants. Parce que ce ne sont plus seulement quelques centaines ou milliers de posts de tes amis qui attendent d'être affichés devant toi, mais des millions de contenus, ce qui devient un problème de recommandation très intéressant.

Et avec l'IA générative, nous allons bientôt entrer dans une nouvelle phase. Aujourd'hui, la plupart du contenu que tu vois sur Instagram est du contenu recommandé, écrit par quelqu'un dans le monde, qui correspond à tes intérêts, que tu suives ces personnes ou non. Mais à l'avenir, une partie de ce contenu sera du nouveau contenu créé par des créateurs utilisant des outils, et même certains contenus seront créés instantanément pour toi, ou générés en synthétisant différents contenus existants.

Ce n'est qu'un exemple de la façon dont notre activité principale va évoluer, elle a déjà évolué pendant 20 ans, mais peu de gens s'en rendent compte.

Révélation de Llama4, permettant aux assistants IA de "débloquer" les agents intelligents dans toute la famille Meta

Jensen Huang : Cependant, les gens réalisent que l'un des plus grands systèmes de calcul au monde est le système de recommandation.

Zuckerberg : C'est une voie complètement différente, ce n'est pas tout à fait l'IA générative dont les gens parlent maintenant. Bien que ce soit toute l'architecture Transformer, tout construit des systèmes de plus en plus généraux, intégrant des données non structurées dans des caractéristiques.

Mais les deux approches produisent une différence qualitative, dans le passé nous formions différents modèles pour différents types de contenu, par exemple un modèle pour le classement et la recommandation de Reels, l'application de courtes vidéos de Meta, et un autre modèle pour le classement et la recommandation de longues vidéos. Ensuite, tu dois faire un certain travail de produit pour que le système puisse afficher n'importe quel contenu en ligne.

À mesure que tu crées des modèles de recommandation de plus en plus généraux, cela devient de plus en plus performant, car tu peux puiser dans un pool de contenu plus large, plutôt que de manière inefficace comme si tu puisais dans différents pools.

Maintenant, à mesure que les modèles deviennent plus grands et plus généraux, ils vont devenir de plus en plus performants. Je rêve qu'un jour, tout le contenu de Facebook ou Instagram soit comme un seul modèle d'IA qui le pilote, unifiant tous ces différents types de contenu et systèmes. En réalité, l'application a différents objectifs de recommandation à différents moments, certains sont juste pour te montrer du contenu intéressant que tu veux voir aujourd'hui, mais certains sont pour t'aider à construire ton réseau de contacts à long terme, et dans ce cas, ces modèles multimodaux ont tendance à être meilleurs pour identifier les modèles, les signaux faibles, etc.

Jensen Huang : Il s'avère que l'IA est utilisée si profondément dans ton entreprise. Vous construisez une infrastructure GPU pour exécuter ces grands systèmes de recommandation depuis longtemps.

Zuckerberg : En fait, nous avons été un peu lents dans l'utilisation des GPU.

Jensen Huang : Oui, tu sembles admettre une erreur, pas besoin de le mentionner volontairement (rires).

Maintenant, ce qui est vraiment cool avec l'IA, c'est que quand j'utilise WhatsApp, j'ai l'impression de "collaborer" avec WhatsApp. Imagine que je tape et qu'il génère des images en suivant ce que je tape. Quand je change mes mots, il génère d'autres images. Par exemple, si je tape "un vieil homme chinois profitant d'un verre de whisky au coucher du soleil avec trois chiens à côté", il génère une image assez bonne.

Zuckerberg : D'une part, je pense que l'IA générative deviendra une énorme mise à niveau de tous nos flux de travail et produits depuis longtemps.

Mais d'autre part, toutes ces nouvelles choses peuvent être créées et générées. Comme des assistants IA tels que Meta AI, qui peuvent t'aider à accomplir différentes tâches. Dans notre monde, ce sera très créatif, il pourra répondre à n'importe quelle question au fil du temps.

À l'avenir, lorsque nous passerons des modèles Llama 3 à Llama 4 et au-delà, je pense que Meta AI ne sera plus seulement comme un chatbot où tu poses une question et il répond. Au lieu de cela, après avoir compris ton intention, il travaillera de manière autonome sur plusieurs cadres temporels. Par exemple, tu lui donnes une intention au début, il démarre, et après des semaines ou des mois de tâches de calcul, il reviendra te dire les résultats, je pense que ce sera très puissant.

Jensen Huang : Comme tu l'as dit, l'IA d'aujourd'hui fonctionne sur un mode question-réponse, mais évidemment, la pensée humaine n'est pas comme ça. Quand on nous donne une tâche ou un problème, nous considérons plusieurs options, nous pourrions élaborer un arbre de décision, nous le simulons mentalement, quels sont les différents résultats de chaque décision. Ce type de planification et de prise de décision, l'IA future pourra faire des choses similaires.

Quand tu as parlé de ta vision de l'IA pour les créateurs, j'étais très excité d'entendre ça, pourquoi ne pas partager tes plans avec tout le monde.

Zuckerberg : Nous en avons déjà un peu parlé, mais nous le déployons plus largement aujourd'hui. Je ne pense pas qu'il n'y aura qu'un seul modèle d'IA, c'est ce que font certaines autres entreprises du secteur, construire un agent intelligent centralisé.

Nous sommes différents, nous aurons l'assistant Meta AI que tu pourras utiliser, mais nous voulons que tous ceux qui utilisent les produits Meta aient la capacité de créer leurs propres agents. Que ce soit les millions de créateurs sur la plateforme, ou les centaines de millions de petites entreprises, ils pourront rapidement construire un agent d'entreprise capable d'interagir avec leurs clients, par exemple pour la vente et le service client, etc.

Donc Meta commence maintenant à déployer davantage ce que nous appelons AI Studio, qui est un ensemble d'outils qui permettront finalement à chaque créateur de construire une sorte de version IA d'eux-mêmes, comme un agent ou un assistant avec lequel les membres de la communauté peuvent interagir.

Si tu es un créateur qui veut plus d'interactions avec ta communauté, tu es en fait limité par le temps et l'énergie. Une meilleure option serait de permettre aux gens de créer ces IA, qui peuvent être formées sur ton corpus de la manière dont tu le souhaites, pour te représenter. Tu sais très bien que tu n'interagis pas avec le créateur lui-même, mais c'est une autre façon intéressante, tout comme les vrais créateurs publient du contenu sur ces systèmes sociaux, d'avoir des agents pour le faire.

De même, je pense que les gens créeront ces agents pour leurs propres entreprises.