01
Der vom Autor erwähnte KI-Vertrag ist eine Vertragsklausel, die beim Vertragsabschluss mit der Plattform vereinbart wird und folgende Inhalte umfasst:
Partei A kann den gesamten oder teilweisen Inhalt und die zugehörigen Informationen der vertraglich vereinbarten Werke (einschließlich Werktitel, Zusammenfassung, Gliederung, Kapitel, Charaktere, persönliche Informationen des Autors, Coverbilder usw.), Daten, Korpora, Texte, Materialien usw. für Annotation, synthetische Daten/Datenbankaufbau, KI-Forschung und -Entwicklung, maschinelles Lernen, Modelltraining, Deepfakes, Algorithmusentwicklung und andere derzeit bekannte oder zukünftig entwickelte neue Technologieforschungs-/Anwendungsbereiche verwenden, einschließlich, aber nicht beschränkt auf:
(1) Verwendung für die Entwicklung und Anwendung von intelligenten Dialogen, intelligenter Text-/Bild-/Audio-/Sprachbearbeitung, -generierung, -umwandlung, Deepfakes, Virtual-Reality-Technologie usw.
(2) Verwendung für KI-Modelltraining unter jeglicher Technologie oder zur Generierung synthetischer Daten/Datenbanken für Modelltraining.
(3) Andere neue Technologieforschungs- oder Anwendungsszenarien.
Hinweis: Partei A ist Tomato, Partei B ist der Autor
Als Plattformbetreiber bot Tomato Novel schnell eine Lösung an, indem sie die Klausel zum KI-Modelltraining aus dem ursprünglichen Vertrag entfernte und eine ergänzende Vereinbarung vorlegte.
Die Tomato Novel-Autorin Yangyang bemerkte auch die neueste ergänzende Klausel und entschied sich, den Vertrag weiterhin zu unterzeichnen. Ihrer Meinung nach ist Tomato Novel für neue Autoren recht geeignet. Yangyang ist vor zwei Monaten Tomato Novel beigetreten und hat kürzlich einen Roman mit über 200.000 Wörtern abgeschlossen.
Aber nicht alle Autoren stimmen zu. Einige haben in sozialen Medien Beiträge veröffentlicht, in denen sie die Zeichensetzung und Absätze der ergänzenden Vereinbarung der Plattform als "Fallstricke" in Frage stellen. Das Vertrauensverhältnis zwischen beiden Seiten muss noch wiederhergestellt werden.
Die Autorin Pingping ist unzufrieden damit, dass ihre Inhalte für KI-Training verwendet werden. Sie glaubt, dass die Entwicklung der KI ein Trend ist und als Produktionswerkzeug bei der Arbeit helfen und Arbeitskräfte freisetzen kann, "aber sie sollte nicht die Arbeitskräfte ersetzen". Sie hofft, dass Tomato Novel eine Ankündigung veröffentlicht, in der sie "verspricht, in Zukunft keine KI-Funktionen zur automatischen Texterstellung zu verwenden", bevor sie die ergänzende Vereinbarung unterzeichnet.
Beide oben genannten Autorinnen haben ausdrücklich erklärt, dass sie Tomato Novel in Zukunft verlassen werden.
Aber im Moment gibt es noch ein weiteres Problem: Viele Autoren befürchten, dass sie von der Plattform wegen der Offenlegung von Vertragsinhalten verklagt werden könnten. Im Falle einer Niederlage vor Gericht könnte auch die Entschädigung eine beträchtliche Summe sein.
02
Mit der rasanten Entwicklung der künstlichen Intelligenz kommt es immer wieder zu Streitigkeiten zwischen Nutzern oder Schöpfern und Plattformen in Bezug auf KI-Urheberrechtsverletzungen. Selbst OpenAI, das die KI-Welle ausgelöst hat, wurde mehrfach von US-Medien verklagt, weil deren Nachrichtenberichte ohne Erlaubnis für KI-Training verwendet wurden. Infolgedessen hat OpenAI begonnen, Kooperationsvereinbarungen mit Medienkonzernen zu unterzeichnen.
Die bekannte US-Schauspielerin Scarlett Johansson hat OpenAI auch beschuldigt, ihre Stimme gestohlen zu haben. Eine der in ChatGPT-4o integrierten Stimmen namens "Sky" klang der von Scarlett sehr ähnlich. Obwohl OpenAI dies bestritt, wurde die Verwendung der "Sky"-Stimme schließlich ausgesetzt.
Meta, das gerade sein leistungsstärkstes Modell veröffentlicht hat, verlangt von Instagram-Nutzern auch die Zustimmung, dass ihre hochgeladenen Inhalte für KI-Training verwendet werden dürfen, andernfalls können sie die Plattform nicht nutzen.
In China hat Interface News bemerkt, dass einige Start-ups nicht davor zurückschrecken, öffentlich veröffentlichte Nachrichtenberichte oder Artikel zu sammeln, mit KI zu "waschen" und damit Inhalte zu produzieren und Profit zu machen. Einige Unternehmen wurden auch von Künstlern beschuldigt, ihre KI-generierten Bilder zu plagiieren.
Zu den oben genannten Situationen erklärt Yu Yunting, Senior Partner der Shanghai Dabang Law Firm, dass die Verwendung von Werken für KI-Training ohne Genehmigung des Autors möglicherweise andere im Urheberrechtsgesetz festgelegte Urheberrechte verletzt. Bisher gibt es jedoch keine entsprechenden Gerichtsurteile, die bestätigen, ob das Training eine Verletzung darstellt. Gerade weil es umstritten ist, würde es selbst dann, wenn es von einem Gericht als Verletzung angesehen wird, kein Verbrechen darstellen.
Yu Yunting fügt hinzu, dass Plattformen, die Werke für KI-Training verwenden möchten, separat mit den Autoren verhandeln und neue Vereinbarungen treffen müssen. Wenn sie einseitig den Vertragsinhalt ändern oder bei Aktualisierungen zur Unterzeichnung von Vereinbarungen zwingen, verstoßen sie gegen bestehende Verträge, und Gerichte würden die Wirksamkeit neuer Verträge nicht anerkennen.
Zweitens, wenn Plattformen behaupten, dass KI-Training nur zur Verbesserung der Servicequalität und nicht für kommerzielle Gewinne dient, ist dies rechtlich nicht haltbar, da die Verbesserung der kommerziellen Servicequalität durch Plattformen auch dem Gewinn dient. Gerichte würden die Verteidigung von Unternehmen nicht anerkennen.
03
Das von Plattformen allgemein durchgeführte "KI-Training" hat bei Schöpfern weitere Bedenken hinsichtlich der Preisgabe privater Inhalte ausgelöst. Kürzlich behauptete ein Internetnutzer, dass WPS angeblich unveröffentlichte Inhalte von Autoren an die Douyin Douban KI "gefüttert" habe, da entsprechende Inhalte bei dieser KI abgefragt werden konnten.
Daraufhin erklärte ByteDance, dass die entsprechenden Gerüchte völlig unbegründet seien und einige Buchinformationen auf Douban aus öffentlichen Informationen stammten; Douban und WPS hätten auf KI-Trainingsebene keinerlei Zusammenarbeit durchgeführt und auch keine unveröffentlichten privaten Daten von Nutzern für das Training verwendet. Auch WPS antwortete offiziell, dass die betreffenden Fragen völlig unbegründet seien.
Der erste landesweite Fall einer KI-generierten Stimme, der im April dieses Jahres vom Internetgericht Peking in erster Instanz verhandelt und entschieden wurde, kann jedoch als Referenz für Inhaltsschöpfer dienen, um ihre Rechte zu schützen. In diesem Fall entdeckte die Synchronsprecherin Yin, dass ein Softwareunternehmen ihre Synchronisationswerke KI-verarbeitet und an relevante Plattformen verkauft hatte, und das Werk in vielen bekannten Apps weit verbreitet war.
Das Gericht stellte nach der Verhandlung fest, dass die beklagte Kultur- und Mediengesellschaft zwar Urheberrechte und andere Rechte an den Tonaufnahmen besaß, dies jedoch nicht das Recht einschloss, Dritte zu ermächtigen, die Stimme der Klägerin für KI-Zwecke zu verwenden. Ihre Handlung, das Softwareunternehmen ohne Wissen und Zustimmung der Klägerin zur KI-Nutzung ihrer Stimme zu ermächtigen, hatte keine rechtmäßige Grundlage. Das Gericht verurteilte die betreffenden Beklagten dazu, sich bei der Klägerin zu entschuldigen und einen Schadensersatz von insgesamt 250.000 Yuan zu zahlen.
Das Gericht wies darauf hin, dass selbst wenn eine rechtmäßige Genehmigung für ein Werk erteilt wurde, dies nicht bedeutet, dass man berechtigt ist, es für KI-Training zu verwenden. Dies zeigt, dass die entsprechenden Rechteinhaber und Schöpfer eine gewisse Kontrolle über ihre Werke haben sollten, und vage Genehmigungsklauseln ohne zusätzliche Vergütung nicht ausreichen, um sicherzustellen, dass Plattformen KI-Training durchführen können.
04
Die "Vorläufigen Maßnahmen zur Verwaltung von generativen KI-Diensten" (im Folgenden als "Maßnahmen" bezeichnet), die in unserem Land letztes Jahr in Kraft getreten sind, schreiben vor, dass bei der Bereitstellung und Nutzung von generativen KI-Diensten geistiges Eigentum, Geschäftsethik usw. respektiert werden müssen und dass Algorithmen, Daten, Plattformen und andere Vorteile nicht für Monopole und unlauteren Wettbewerb genutzt werden dürfen.
Die "Maßnahmen" stellen auch eine Reihe von Anforderungen an die Anbieter von generativen KI-Diensten, einschließlich der gesetzeskonformen Durchführung von Trainingsdatenverarbeitung, der Übernahme der Verantwortung als Produzenten von Netzwerkinformationsinhalten und als Verarbeiter personenbezogener Daten sowie der klaren Definition der Zielgruppe für die Dienste.
Es ist jedoch schwierig, Urheberrechtsverletzungen durch generative KI festzustellen, einschließlich der Definition des Verletzungsobjekts, der Beurteilung der Originalität der generierten Inhalte, der Beweissammlung und technischen Analyse sowie der Unsicherheit bei der Rechtsanwendung.
Zweitens werden die von generativer KI erzeugten Inhalte bestimmten Nutzern zur Verfügung gestellt und sind an sich nicht direkt öffentlich, sodass es keine großflächigen direkten Verletzungen gibt, was sich von traditionellen Netzwerkverletzungen unterscheidet.
Der kontinuierliche Fortschritt der KI-Technologie stellt auch die rechtliche "Idee-Ausdruck-Dichotomie" in Frage, und der traditionelle Standard zur Feststellung von Verletzungen durch "Zugang + Ähnlichkeit" ist nicht mehr vollständig anwendbar. Generative KI kann menschliche Werke schnell lernen und unterschiedliche Ausdrucksergebnisse erzeugen, was es schwierig macht, "Ideen und Ausdrücke" klar zu "trennen" und somit die Feststellung von Verletzungen erschwert.
Insgesamt können die bestehenden gesetzlichen Bestimmungen nicht alle Anwendungsszenarien und Generierungsformen der KI vollständig abdecken. Um diese Schwierigkeiten zu bewältigen, muss die Rechtswelt kontinuierlich relevante Gesetze und Standards zur Feststellung von Verletzungen erforschen und verbessern sowie technische Merkmale, soziale Auswirkungen und andere Faktoren umfassend berücksichtigen, um eine angemessene Beurteilung und wirksame Regulierung von Verletzungen durch generative KI zu erreichen.