DeepMind-Forscher haben den ersten KI-Roboter vorgestellt, der in der Lage ist, gegen menschliche Amateurspieler im Tischtennis anzutreten. Das System kombiniert einen industriellen Roboterarm ABB IRB 1100 mit DeepMinds eigener KI-Software. Während menschliche Profis ihn noch übertreffen, demonstriert das System die Fähigkeit von Maschinen, blitzschnelle Entscheidungen zu treffen und sich bei komplexen physischen Aufgaben anzupassen.
Tischtennis ist seit einem Jahrzehnt aufgrund seiner Anforderungen an Geschwindigkeit, Reflexe und Strategie entscheidend für die Bewertung von Roboterarmen.
Die Forscher schrieben in ihrem Vorabdruck auf arXiv: "Dies ist der erste Roboteragent, der in der Lage ist, auf menschlichem Niveau in einer physischen Sportart zu konkurrieren, was einen weiteren Meilenstein im robotischen Lernen und in der Steuerung darstellt."
Der namenlose Tischtennis-Roboteragent (vorgeschlagener Name "AlphaPong") wurde von einem Forschungsteam entwickelt, zu dem David B. D'Ambrosio, Saminda Abeyruwan und Laura Graesser gehören. Er zeigte gute Leistungen gegen Spieler unterschiedlicher Fähigkeitsstufen. In einer Studie mit 29 Teilnehmern erreichte der KI-Roboter eine Gewinnquote von 45% und demonstrierte solide Fähigkeiten auf Amateurniveau.
Bemerkenswert ist, dass er 100% der Spiele gegen Anfänger und 55% gegen Spieler mittlerer Stärke gewann. Allerdings verlor er jedes Spiel gegen fortgeschrittene Spieler.
Die physische Konfiguration des Roboters umfasst den IRB 1100, einen Roboterarm mit 6 Freiheitsgraden, der auf zwei Linearschienen für 2D-Ebenenbewegungen montiert ist. Hochgeschwindigkeitskameras verfolgen die Position des Balls, während ein Motion-Capture-System die Schläger-Bewegungen des menschlichen Gegners beobachtet.
DeepMind-Forscher entwickelten einen zweistufigen Ansatz zur Steuerung des Roboterarms, der es ihm ermöglicht, spezifische Tischtennistaktiken auszuführen und gleichzeitig seine Strategie in Echtzeit basierend auf dem Spielstil jedes Gegners anzupassen. Diese Anpassungsfähigkeit ermöglicht es ihm, gegen jeden Spieler auf Amateurniveau zu konkurrieren, ohne speziell für verschiedene Gegner trainiert zu werden.
Die Architektur des Systems kombiniert Low-Level-Skill-Controller (trainiert zur Ausführung spezifischer Tischtennistechniken) mit einem High-Level-Strategieentscheider (ein komplexeres KI-System, das den Spielzustand analysiert, sich an Gegnerstile anpasst und geeignete Low-Level-Skill-Strategien für jeden eingehenden Ball auswählt).
Eine Schlüsselinnovation ist die Trainingsmethode des KI-Modells, die Reinforcement Learning in simulierten physischen Umgebungen nutzt und gleichzeitig reale Beispiele als Trainingsdaten einbezieht. Diese Technik ermöglichte es dem Roboter, aus etwa 17.500 realen Tischtennisball-Flugbahnen zu lernen.
Die Forscher verwendeten einen iterativen Prozess zur Verfeinerung der Fähigkeiten des Roboters, beginnend mit einem kleinen Datensatz von Mensch-Roboter-Spielen und ließen dann die KI gegen echte Gegner antreten. Jedes Spiel generierte neue Daten über Ballflugbahnen und menschliche Strategien, die für weiteres Training in Simulationen zurückgeführt wurden.
Der Prozess wurde sieben Mal wiederholt, wodurch der Roboter sich kontinuierlich an immer geschicktere Gegner und verschiedene Spielstile anpassen konnte. In der letzten Runde hatte die KI aus über 14.000 Ballwechseln und 3.000 Aufschlägen gelernt und umfangreiches Tischtenniswissen angesammelt, wodurch die Lücke zwischen Simulation und Realität überbrückt wurde.
Interessanterweise experimentiert Nvidia mit ähnlichen simulierten Physiksystemen. Ihr Eureka-System ermöglicht es KI-Modellen, schnell zu lernen, Roboterarme in simulierten Räumen anstatt in der realen Welt zu steuern.
Über die technischen Errungenschaften hinaus untersuchte die Google-Studie die Erfahrung menschlicher Spieler im Wettbewerb gegen KI-Gegner. Überraschenderweise berichteten menschliche Spieler, dass sie die Erfahrung genossen, selbst wenn sie gegen den Tischtennis-Roboteragenten verloren.
Die Forscher bemerkten: "Menschliche Spieler berichteten, dass das Spielen gegen den Roboter 'spaßig und fesselnd' war, über alle Fähigkeitsgruppen und Gewinnraten hinweg." Diese positive Resonanz deutet auf potenzielle Anwendungen für KI im Sporttraining und in der Unterhaltung hin.
Das System hat jedoch Einschränkungen, es zeigt schlechte Leistungen bei extrem schnellen und hohen Bällen, hat Schwierigkeiten, starken Balldrall zu erkennen, und zeigt Schwächen im Rückhandspiel.
Das Google DeepMind Forschungsteam arbeitet daran, diese Mängel zu beheben. Sie schlagen vor, fortgeschrittene Steuerungsalgorithmen und Hardware-Optimierungen zu erforschen, möglicherweise einschließlich prädiktiver Modelle für Ballflugbahnen und schnellerer Kommunikationsprotokolle zwischen den Sensoren und Aktuatoren des Roboters.
Die Forscher betonen, dass mit weiterer Verfeinerung der Ergebnisse das System möglicherweise in Zukunft mit Tischtennis-Spielern auf hohem Niveau konkurrieren könnte. DeepMind hat umfangreiche Erfahrung in der Entwicklung von KI-Modellen, die menschliche Spieler besiegen, einschließlich AlphaZero und AlphaGo im Spiel Go.
Die Forscher erklären auch, dass die Auswirkungen dieses robotischen Tischtennis-"Wunderkinds" über Tischtennis hinausgehen. Die für dieses Projekt entwickelten Technologien könnten auf verschiedene robotische Aufgaben angewendet werden, die schnelle Reaktionen und Anpassung an unvorhersehbares menschliches Verhalten erfordern, einschließlich Fertigung und Gesundheitswesen.