
Pionnier de l'IA générative conversationnelle Schmidhuber : réflexions après n'avoir pas reçu le prix Turing
La vérité est comme la lumière du soleil, elle peut être temporairement obscurcie par les nuages, mais finira par percer l'obscurité et briller de mille feux.

L'IA assistante peine à surpasser les médias traditionnels ? La nouvelle création de Musk, Grok, montre des lacunes dans la couverture de l'attaque contre Trump
Le chatbot d'intelligence artificielle Grok a faussement affirmé que l'ancien président Trump avait été assassiné, un incident qui met en évidence les lacunes des systèmes d'IA dans le traitement des informations en temps réel et la distinction entre faits et fiction. Cette erreur a suscité des doutes sur la fiabilité de l'IA, tout en rappelant la nécessité de rester prudent lorsqu'on s'appuie sur du contenu généré par l'IA.

L'Université Tsinghua remporte pour la première fois les prix "Test of Time Paper Award" et "Best Paper Award" du SIGIR 2024 pour une institution de recherche de Chine continentale
L'École d'informatique et de technologie de l'Université Tsinghua a remporté plusieurs prix importants lors de la conférence internationale SIGIR 2024.

OpenAI publie une recherche sur l'alignement ultime : les grands et petits modèles s'affrontent pour améliorer la lisibilité des résultats
La précision a légèrement diminué

Activant seulement 3,8 milliards de paramètres, ses performances rivalisent avec celles des modèles similaires de 7 milliards, adapté à l'entraînement et au réglage fin, dernière avancée de recherche de Microsoft
Les chercheurs ont révélé des modèles d'optimisation dans le processus de raisonnement des grands modèles de langage. En analysant des modèles de différentes tailles, ils ont découvert une loi d'échelle prévisible qui peut guider une inférence plus efficace des modèles. Cette découverte offre de nouvelles idées et méthodes pour optimiser les performances d'inférence des modèles de langage à grande échelle.

L'équipe de Jia Jiaya lance un nouveau standard d'évaluation : axé sur la capacité de correction des erreurs des grands modèles de langage, GPT-4 ne répond pas aux attentes
Couvrant plusieurs domaines, avec différents niveaux de difficulté

Femme entrepreneure d'origine chinoise, professeure titulaire à Stanford à 33 ans, fonde une licorne d'un milliard de dollars en 3 mois, ancienne conseillère de la Maison Blanche
Li Feifei a fondé la société World Labs, dont la valorisation a dépassé le milliard de dollars.
