Kurz nach der Veröffentlichung von Grok 2 kam es zu Kontroversen. xAI arbeitete mit Black Forest Labs zusammen, um das FLUX-Modell zu testen, aber aufgrund fehlender strenger Beschränkungen erschienen auf der X-Plattform zahlreiche schockierende Bilder.
Diese Bilder beinhalteten Szenen, die Politiker parodierten, wie Harris als Clown verkleidet oder Trump mit einer Waffe. Es gab auch kontroversere Bilder, wie Trump, der eine Waffe auf schwarze Kinder richtet. Angesichts der sensiblen Zeit der US-Wahlen lösten diese Bilder ernsthafte Bedenken aus.
Internetnutzer kritisierten, dass Grok bei der Bilderzeugung überhaupt keine Filtermechanismen hatte, und bezeichneten es als "eine der rücksichtslosesten und unverantwortlichsten KI-Implementierungen". xAI erkannte den Ernst der Lage und sperrte die Funktion vorübergehend.
Da Grok 2 nur minimale Schutzmaßnahmen hatte, nutzten Internetnutzer es, um zahlreiche Parodien von Prominenten zu erstellen, darunter ein rauchender Trump und Musk mit Goldketten. Es tauchten sogar Szenen der Versöhnung politischer Gegner auf, wie Biden, der für Trump Wahlkampf macht, oder Trump, der für Biden tanzt.
Beunruhigender war, dass Grok auch einige gewalttätige Szenen und urheberrechtlich geschützte Bilder erzeugte, wie bewaffnete Pikachus und Micky Mäuse. Einige befürchteten, dass dies zu rechtlichen Klagen führen könnte.
Obwohl Grok behauptete, einige Einschränkungen zu haben, schienen diese Regeln in der Praxis wirkungslos zu sein. Im Vergleich zu Unternehmen wie Google, OpenAI, Meta und Anthropic zeigte sich Grok bei der Inhaltsfilterung und ethischen Richtlinien weniger vorsichtig.
Dieser Vorfall unterstreicht die ethischen und sicherheitstechnischen Herausforderungen der KI-Bilderzeugungstechnologie und löste eine Diskussion über die Verantwortung von KI-Unternehmen aus.