Nach einem versuchten Attentat auf den ehemaligen Präsidenten Donald Trump veröffentlichte Elon Musks KI-Chatbot Grok mehrere irreführende Nachrichtenzusammenfassungen. Dieser Vorfall verdeutlicht die Grenzen der KI-Technologie im Umgang mit komplexen Ereignissen der realen Welt.
Musk hat hohe Erwartungen an Grok gestellt und hofft, dass Menschen es nutzen würden, um auf Nachrichteninformationen zuzugreifen und möglicherweise traditionelle Medien zu stören. Groks Leistung in dieser Situation war jedoch alles andere als ideal.
Ein bemerkenswerter Fehler behauptete, Vizepräsidentin Kamala Harris sei angegriffen worden, was offenbar auf einer Fehlinterpretation von Social-Media-Beiträgen beruhte, die einen verbalen Ausrutscher von Präsident Biden verspotteten. Eine andere Zusammenfassung identifizierte den Verdächtigen fälschlicherweise und verband ihn ohne ordnungsgemäße Überprüfung mit "Antifa".
Trotz Haftungsausschlüssen, die diese Zusammenfassungen begleiten, bleibt das Potenzial für Fehlinformationen ein Anlass zur Sorge. Musk hat zuvor die Fähigkeit von X (ehemals Twitter) und Grok gepriesen, Informationen aus Millionen von Nutzerbeiträgen zu Schlagzeilen und Nachrichtenzusammenfassungen zu destillieren. Er hat traditionelle Medien für langsame Reaktionen und schwindende Glaubwürdigkeit kritisiert und Nutzer ermutigt, sich für Echtzeit-Nachrichtenaktualisierungen auf Grok zu verlassen.
Bei einer Werbeveranstaltung im Juni betonte Musk: "Auf X erreichen wir Informationskonvergenz und -verfeinerung. Wir nutzen KI, um die Eingaben von Millionen von Nutzern in verfeinerte Zusammenfassungen umzuwandeln. Ich glaube, das wird in Zukunft die neue Norm für die Nachrichtenverbreitung sein."
Grok, entwickelt von Musks KI-Unternehmen xAI, wurde schrittweise in X integriert und bietet Abonnenten Funktionen wie einen intelligenten Chatbot. Während es einige Genauigkeit bei der Nachrichtenzusammenfassung gezeigt hat, haben jüngste Ereignisse Schwächen in seinem Design offenbart, insbesondere im Umgang mit aktuellen Nachrichtensituationen.
Katie Harbath, ehemalige Leiterin der öffentlichen Ordnung bei Facebook, kommentierte: "Wir haben noch einen weiten Weg vor uns. Wenn es um plötzliche Ereignisse wie Schießereien geht, bei denen die Fakten noch nicht feststehen, sind menschliches professionelles Urteilsvermögen und Hintergrundwissen unerlässlich."
Einige von Groks Fehlern gingen über typische Verwirrung in aktuellen Nachrichtensituationen hinaus. Eine Schlagzeile suggerierte fälschlicherweise, dass ein Schauspieler aus "Kevin - Allein in New York" bei einer Trump-Kundgebung angeschossen worden sei, und vermischte dabei Trumps Cameo-Auftritt im Film mit dem tatsächlichen Ereignis.
Dies ist nicht das erste Mal, dass Grok Herausforderungen bei der Zusammenfassung von Nachrichtenereignissen gegenübersteht. Nach einer Präsidentschaftsdebatte im Juni generierte es fälschlicherweise eine Schlagzeile, die behauptete, Kaliforniens Gouverneur Gavin Newsom habe eine Debatte "gewonnen", an der er nicht teilgenommen hatte.
Der ehemalige Twitter-Manager Evan Hansen enthüllte, dass Twitter vor Musks Übernahme mit KI-unterstütztem Schreiben von Zusammenfassungen experimentiert hatte, aber immer noch menschliche Überprüfung und Korrektur erforderte. Er bemerkte: "KI kann eine Rolle spielen, muss aber sehr sorgfältig gehandhabt werden."
Dieser Vorfall unterstreicht die anhaltenden Herausforderungen bei der Entwicklung von KI-Systemen, die in der Lage sind, komplexe Nachrichtenereignisse in Echtzeit genau zu verarbeiten und zusammenzufassen.