GPT-4 confronté au défi de l'étendage du linge, les humains viennent à la rescousse pour résoudre le problème, quand l'IA aura-t-elle du bon sens ?

Examinons le rôle crucial de l'incarnation et des facteurs émotionnels dans le développement de l'intelligence artificielle. Analysons l'importance de ces deux éléments pour réaliser une véritable intelligence, ainsi que leur impact potentiel sur la recherche en IA. L'incarnation et les émotions sont des aspects essentiels de l'intelligence humaine qui sont souvent négligés dans le développement de l'IA traditionnelle. Cependant, leur intégration pourrait être la clé pour créer des systèmes d'IA plus avancés et plus proches de l'intelligence humaine. L'incarnation fait référence à l'idée que l'intelligence est profondément liée à l'expérience physique et à l'interaction avec l'environnement. Pour l'IA, cela signifie que le développement de systèmes capables d'interagir avec le monde réel de manière similaire aux humains pourrait conduire à une compréhension plus profonde et plus contextuelle. Les facteurs émotionnels, quant à eux, jouent un rôle crucial dans la prise de décision, la motivation et l'interaction sociale chez les humains. Intégrer des modèles émotionnels dans l'IA pourrait améliorer sa capacité à comprendre et à interagir avec les humains de manière plus naturelle et intuitive. L'importance de ces éléments pour une véritable intelligence réside dans leur capacité à fournir un contexte et une profondeur à l'apprentissage et au raisonnement de l'IA. Une IA incarnée et émotionnellement intelligente pourrait mieux comprendre les nuances de l'expérience humaine et prendre des décisions plus adaptées aux situations complexes du monde réel. Dans la recherche en IA, l'accent mis sur l'incarnation et les émotions pourrait ouvrir de nouvelles voies d'exploration. Cela pourrait conduire au développement de robots plus avancés, d'agents conversationnels plus naturels et de systèmes d'IA capables d'une véritable empathie et compréhension contextuelle. En conclusion, l'intégration de l'incarnation et des facteurs émotionnels dans le développement de l'IA représente une frontière prometteuse pour l'avancement vers une intelligence artificielle plus authentique et plus proche de l'intelligence humaine.

Dans ce podcast de QuantaMagazine, l'animateur a interviewé Yejin Choi, professeure d'informatique à l'Université de Washington. Ils ont exploré des sujets intéressants, comme la question de savoir si l'IA doit acquérir une incarnation et des émotions pour développer un sens commun semblable à celui des humains.

Actuellement, GPT-4 a déjà démontré une "conscience humaine" impressionnante. Dans ce podcast, Yejin Choi et l'animateur Steven Strogatz ont discuté des capacités et des limites des chatbots et des grands modèles de langage (LLM) qui les construisent. Ils ont examiné si l'IA pourrait vraiment comprendre le monde et les questions auxquelles elle répond.

Dès les années 60, les informaticiens rêvaient d'ordinateurs inspirés du cerveau capables de manifester une intelligence semblable à celle des humains. Avec l'essor d'Internet, l'apparition de vastes ensembles de données textuelles et les progrès significatifs de la puissance de calcul, nous semblons être arrivés à un moment crucial. Les LLM d'aujourd'hui semblent posséder quelque chose proche de l'intelligence humaine.

La théorie proposée par Sanjeev Arora de l'Université de Princeton et Anirudh Goyal, chercheur scientifique chez Google DeepMind, suggère que les plus grands LLM d'aujourd'hui ne sont pas des perroquets aléatoires. À mesure que les modèles deviennent plus grands et sont entraînés sur plus de données, leurs capacités linguistiques s'améliorent et ils combinent les compétences d'une manière qui suggère une compréhension, développant de nouvelles capacités.

Choi explique que ce que font les LLM, c'est lire beaucoup de texte et apprendre à prédire le mot suivant, mais à une très grande échelle. Il ne s'agit pas nécessairement d'une "introspection mot à mot" des données d'entraînement, mais d'une certaine généralisation. Si un texte est répété assez fréquemment dans les données Internet, il le mémorisera effectivement mot pour mot.

Le processus d'entraînement des LLM peut se résumer à la construction d'un très grand réseau neuronal avec des couches et des couches de neurones empilées, puis à l'alimentation séquentielle des données Internet. L'objectif du processus d'apprentissage est de prédire le mot suivant en fonction de la séquence des mots précédents.

Bien que simple, cette méthode d'entraînement peut produire des résultats puissants, permettant aux LLM de répondre à diverses questions dans le texte. Cependant, le processus d'entraînement des LLM est radicalement différent de la façon dont les humains comprennent le monde. Les humains apprennent à travers des cours et la curiosité, et font des hypothèses sur le monde.

Choi considère que les LLM sont une sorte de "soupe de pensées et d'émotions". Ils imitent les émotions et les intentions humaines parce que les gens investissent effectivement des émotions et des intentions dans leur écriture. Mais au final, ils ne possèdent pas vraiment les véritables émotions que les humains ont.