Google AI robot de ping-pong balaie les joueurs. Internautes : pourrait représenter les États-Unis aux Jeux olympiques

Obtenir un taux de victoire de 45% démontre un niveau de jeu professionnel solide.

Les chercheurs de DeepMind ont dévoilé le premier robot IA capable de rivaliser avec des joueurs de tennis de table amateurs humains. Le système combine un bras robotique industriel ABB IRB 1100 avec le logiciel d'IA personnalisé de DeepMind. Bien que les professionnels humains le surpassent encore, le système démontre la capacité des machines à prendre des décisions en une fraction de seconde et à s'adapter dans des tâches physiques complexes.

Le tennis de table a été crucial pour évaluer les bras robotiques depuis une décennie en raison de ses exigences en matière de vitesse, de réflexes et de stratégie.

Les chercheurs ont écrit dans leur article préliminaire sur arXiv : "C'est le premier agent robotique capable de rivaliser au niveau humain dans un sport physique, représentant une nouvelle étape dans l'apprentissage et le contrôle robotiques."

L'agent robot de tennis de table sans nom (nom suggéré "AlphaPong") a été développé par une équipe de recherche comprenant David B. D'Ambrosio, Saminda Abeyruwan et Laura Graesser. Il a bien performé contre des joueurs de différents niveaux de compétence. Dans une étude impliquant 29 participants, le robot IA a atteint un taux de victoire de 45%, démontrant de solides compétences de niveau amateur.

Notamment, il a remporté 100% des matchs contre les débutants et 55% contre les joueurs intermédiaires. Cependant, il a perdu tous les matchs contre les joueurs avancés.

La configuration physique du robot comprend l'IRB 1100, un bras robotique à 6 degrés de liberté monté sur deux rails linéaires pour un mouvement dans le plan 2D. Des caméras haute vitesse suivent la position de la balle, tandis qu'un système de capture de mouvement observe les mouvements de la raquette de l'adversaire humain.

Les chercheurs de DeepMind ont développé une approche à deux niveaux pour piloter le bras robotique, lui permettant d'exécuter des tactiques spécifiques de tennis de table tout en ajustant sa stratégie en temps réel en fonction du style de jeu de chaque adversaire. Cette adaptabilité lui permet de rivaliser avec n'importe quel joueur de niveau amateur sans formation spécifique pour différents adversaires.

L'architecture du système combine des contrôleurs de compétences de bas niveau (formés pour exécuter des techniques spécifiques de tennis de table) avec un décideur stratégique de haut niveau (un système d'IA plus complexe analysant l'état du jeu, s'adaptant aux styles des adversaires et sélectionnant les stratégies de compétences de bas niveau appropriées pour chaque balle entrante).

Une innovation clé est la méthode d'entraînement du modèle d'IA, utilisant l'apprentissage par renforcement dans des environnements physiques simulés tout en incorporant des exemples du monde réel comme données d'entraînement. Cette technique a permis au robot d'apprendre à partir d'environ 17 500 trajectoires réelles de balles de tennis de table.

Les chercheurs ont utilisé un processus itératif pour affiner les compétences du robot, commençant par un petit ensemble de données de matchs homme-robot, puis faisant concourir l'IA contre de vrais adversaires. Chaque match générait de nouvelles données sur les trajectoires des balles et les stratégies humaines, qui étaient réinjectées dans les simulations pour un entraînement supplémentaire.

Le processus a été répété pendant sept cycles, permettant au robot de s'adapter continuellement à des adversaires de plus en plus qualifiés et à divers styles de jeu. Au dernier tour, l'IA avait appris de plus de 14 000 échanges et 3 000 services, accumulant une vaste connaissance du tennis de table et comblant l'écart entre simulation et réalité.

Il est intéressant de noter que Nvidia expérimente des systèmes de physique simulée similaires. Leur système Eureka permet aux modèles d'IA d'apprendre rapidement à contrôler des bras robotiques dans des espaces simulés plutôt que dans le monde réel.

Au-delà des réalisations techniques, l'étude de Google a exploré l'expérience des joueurs humains en compétition contre des adversaires IA. Étonnamment, même en perdant contre l'agent robot de tennis de table, les joueurs humains ont rapporté avoir apprécié l'expérience.

Les chercheurs ont noté : "Les joueurs humains ont rapporté que jouer contre le robot était 'amusant et engageant' pour tous les groupes de compétences et taux de victoire." Cette réponse positive suggère des applications potentielles de l'IA dans l'entraînement sportif et le divertissement.

Cependant, le système a des limites, performant mal avec des balles extrêmement rapides et hautes, ayant du mal à détecter les effets de balle sévères, et montrant une faiblesse dans le jeu de revers.

L'équipe de recherche de Google DeepMind travaille à résoudre ces lacunes. Ils proposent de rechercher des algorithmes de contrôle avancés et des optimisations matérielles, incluant éventuellement des modèles prédictifs pour la trajectoire de la balle et des protocoles de communication plus rapides entre les capteurs et les actionneurs du robot.

Les chercheurs soulignent qu'à mesure que les résultats seront affinés, ils pensent que le système pourrait potentiellement rivaliser avec des joueurs de tennis de table de haut niveau à l'avenir. DeepMind a une vaste expérience dans le développement de modèles d'IA qui battent les joueurs humains, notamment AlphaZero et AlphaGo dans le jeu de Go.

Les chercheurs affirment également que l'impact de ce "prodige" robotique du tennis de table s'étend au-delà du tennis de table. Les technologies développées pour ce projet pourraient être appliquées à diverses tâches robotiques nécessitant des réactions rapides et une adaptation au comportement humain imprévisible, y compris dans la fabrication et les soins de santé.