In der Innovationsschmiede Silicon Valley führen KI-Wissenschaftler wie Fei-Fei Li und Andrew Ng einen Tauziehkampf mit Regulierungsbehörden um Sicherheit und Innovation.
Im Mittelpunkt der Kontroverse steht ein Gesetzentwurf namens SB-1047, der vollständige Titel lautet "Gesetz zur sicheren Innovation bei fortschrittlichen KI-Modellen". Der Gesetzentwurf versucht, klare Sicherheitsstandards für Hochrisiko-KI-Modelle zu etablieren, um Missbrauch oder katastrophale Folgen zu verhindern.
Die Hauptpunkte des Gesetzentwurfs umfassen:
-
Anwendung auf KI-Modelle, die mit mehr als 10^26 Berechnungen oder Kosten über 100 Millionen Dollar trainiert wurden.
-
Entwickler müssen rechtliche Verantwortung für nachgelagerte Nutzungen übernehmen.
-
Einrichtung einer "Abteilung für fortschrittliche Modelle" als Regulierungsbehörde.
-
Aufnahme von Whistleblower-Schutzklauseln.
Viele Wissenschaftler halten die Bestimmungen des Gesetzentwurfs für unangemessen und befürchten eine ernsthafte Behinderung der Innovation. Fei-Fei Li weist in einem Artikel auf drei Hauptprobleme des Gesetzentwurfs hin:
-
Übermäßige Bestrafung von Entwicklern, die Innovation erstickt.
-
Einschränkung der Open-Source-Entwicklung.
-
Schwächung der KI-Forschung im öffentlichen Sektor und in der Wissenschaft.
Dutzende Wissenschaftler haben sich ebenfalls gegen den Gesetzentwurf ausgesprochen und argumentieren, dass er:
-
Einen "Abschreckungseffekt" auf die Veröffentlichung von Open-Source-Modellen haben wird.
-
Unwissenschaftliche Methoden zur Vorhersage von KI-Risiken verwendet.
-
Unzureichenden Schutz für Open-Source-Modelle bietet.
-
Die Beschäftigungsmöglichkeiten und Karriereentwicklung von Studenten beeinträchtigt.
Dieser Tauziehkampf spiegelt den Konflikt zwischen Sicherheit und Innovation in der KI-Entwicklung wider und zeigt die Notwendigkeit, ein Gleichgewicht zwischen Regulierung und Entwicklung zu finden.