Das kalifornische Gesetz zur Sicherheit und Innovation bei fortschrittlichen KI-Modellen wurde nach erheblichen Abschwächungen vom Bewilligungsausschuss des kalifornischen Repräsentantenhauses genehmigt. Die wichtigsten Änderungen des überarbeiteten Gesetzentwurfs umfassen:
-
Der Generalstaatsanwalt darf KI-Unternehmen nicht mehr vor dem Eintreten katastrophaler Ereignisse wegen Vernachlässigung von Sicherheitsproblemen verklagen. Der Fokus der Regulierung liegt nun auf tatsächlichen Schäden.
-
Nur Entwickler, deren Modelltraining Rechenkosten von über 100 Millionen Dollar verursacht, unterliegen den Regulierungsanforderungen. Bestehende Modelle fallen nicht unter die Regulierung. Zukünftige Modelle wie Llama 4 und GPT-5 könnten reguliert werden.
-
Das Gesetz verlangt von Cloud-Dienstleistern, Kundeninformationen zu sammeln, um Rückverfolgung durch Aufsichtsbehörden zu ermöglichen.
-
Regulierte Unternehmen müssen Maßnahmen gegen Modellmissbrauch ergreifen, die Fähigkeit zur Notabschaltung besitzen, Erklärungen zu Sicherheitspraktiken einreichen und sich jährlichen unabhängigen Prüfungen unterziehen.
-
Gesetzesverstöße können mit Geldstrafen zwischen 10 und 30 Millionen Dollar geahndet werden.
-
Es gibt stark unterschiedliche Meinungen für und gegen das Gesetz. Befürworter sehen es als Mindestanforderung für effektive Regulierung, Gegner befürchten Behinderungen für KI-Entwicklung und Open-Source-Ökosysteme.
-
Der Hauptautor des Gesetzes wies einige Kritikpunkte zurück und behauptete, es würde Innovation und Open-Source-KI nicht schaden.
-
Der überarbeitete Gesetzentwurf enthält nun Schutzklauseln für das Fine-Tuning von Open-Source-Modellen.
Die genauen Inhalte und Auswirkungen des Gesetzes bleiben abzuwarten.