Ist GenAI zum "Desinformations-Generator" verdammt?
Forscher haben herausgefunden, dass die meisten Fälle von GenAI-Missbrauch eine normale Nutzung des Systems darstellen und keine "Jailbreak"-Aktivitäten beinhalten. Diese "Routineoperationen" machen 90% der Fälle aus.
Wie die Forscher später in ihrer Arbeit erklären, ermöglichen die weite Verfügbarkeit, Zugänglichkeit und Hyperrealität von GenAI eine Vielzahl von Missbrauchsformen auf niedrigerem Niveau - die Kosten für die Erstellung von Fehlinformationen sind einfach zu gering!
Nach der Lektüre dieses Papiers könnten Sie unweigerlich zu dem Schluss kommen: Die Menschen missbrauchen GenAI nicht, sie nutzen es lediglich so, wie es konzipiert wurde.
Menschen verwenden generative KI zur Erstellung großer Mengen falscher Inhalte, weil sie von Natur aus sehr gut darin ist, diese Aufgabe zu erfüllen.
Viele falsche Inhalte haben oft weder eine offensichtliche böse Absicht noch verstoßen sie eindeutig gegen die Inhaltsrichtlinien oder Nutzungsbedingungen dieser Tools, aber ihr potenzieller Schaden ist enorm.
Diese Beobachtung stimmt mit früheren Berichten von 404 Media überein.
Diejenigen, die KI nutzen, um sich als andere auszugeben, den Umfang und die Verbreitung schädlicher Inhalte zu erweitern oder nicht einvernehmliche intime Bilder (NCII) zu erstellen, haben größtenteils nicht in die KI-Generierungstools, die sie verwenden, eingebrochen oder sie manipuliert - sie nutzen diese Tools innerhalb der erlaubten Grenzen.
Zwei einfache Beispiele können angeführt werden:
Die "Zäune" von KI-Tools können mit einigen geschickten Prompts umgangen werden. Nichts hindert Benutzer daran, ElevenLabs' KI-Stimmklonwerkzeug zu verwenden, um die Stimmen von Kollegen oder Prominenten hochrealistisch nachzuahmen.
Civitai-Benutzer können KI-generierte Bilder von Prominenten erstellen. Obwohl die Plattform eine Politik gegen NCII hat, hindert nichts Benutzer daran, Open-Source-Tools wie Automatic1111 oder ComfyUI von GitHub auf ihren eigenen Maschinen zu verwenden, um NCII zu generieren.
Das Posten dieser KI-generierten Inhalte auf Facebook könnte gegen die Richtlinien der Plattform verstoßen, aber der Akt der Generierung selbst verstößt nicht gegen die Richtlinien der verwendeten KI-Bildgeneratoren.
Medien: Der Missbrauch von GenAI ist nur die Spitze des Eisbergs
Da Googles Forschungsmaterial größtenteils aus Medienberichten stammt, stellt sich die Frage: Könnte dies zu einer medialen Verzerrung der Forschungsergebnisse führen? Schließlich haben Medien als Scheinwerfer ihre eigenen Voreingenommenheiten bei der Themenauswahl und Berichterstattung.
Sensationelle Ereignisse werden eher berichtet, was zu einer Verzerrung des Datensatzes in Richtung bestimmter Arten von Missbrauch führen könnte.
404 Media hat darauf reagiert: Obwohl Medien nur über Vorfälle berichten können, die sie verifizieren können, ist eines sicher - es gibt noch viele Fälle von Missbrauch generativer KI, die wir noch nicht erkannt haben und über die nicht berichtet wurde.
Selbst die oben erwähnte Situation der KI-generierten Promi-Pornografie, die in den Medien stark thematisiert wurde, leidet immer noch unter Unterberichterstattung.
Erstens, weil das Thema immer noch tabu ist und viele Publikationen nicht darüber berichten wollen.
Zweitens, weil Medien nur Einzelfälle erfassen können und nicht immer das Gesamtbild und die Folgen im Blick haben können. Ein Redakteur von 404 Media schrieb:
Bevor ich Patreon für eine offizielle Antwort kontaktierte (danach schloss der Sprecher sein Konto), schrieb ich einen Bericht über einen Benutzer, der auf Patreon mit NCII Geld verdiente und 53.190 nicht einvernehmliche Bilder von Prominenten erstellte. In diesem Bericht erwähnte ich zwei weitere NCII-Ersteller, und seitdem habe ich weitere gefunden. Die KI-generierten Nacktbilder von Taylor Swift, die auf Twitter viral gingen, wurden zuerst in Telegram- und 4chan-Communities geteilt, die um den Zeitpunkt dieses Berichts im Januar herum sehr aktiv waren und seitdem täglich NCII veröffentlichen. Ich und andere Reporter können nicht über jedes einzelne Bild und jeden Ersteller berichten, denn wenn wir das täten, hätten wir keine Zeit für andere Dinge.
Wenn Fehlinformationen überhand nehmen, wird es einfach, KI die Schuld zu geben
Lassen Sie uns eine Prognose wagen: Was wird passieren, wenn das Internet mit KI-generierten Inhalten überschwemmt wird?
Die unmittelbarste Folge ist, dass der chaotische Zustand des Internets die Fähigkeit der Menschen, zwischen Wahrheit und Lüge zu unterscheiden, auf eine harte Probe stellen wird. Wir werden in einen Zustand ständigen Zweifels geraten: "Ist das echt?"
In den frühen Tagen des Internets war ein beliebter Spruch: "Im Internet weiß niemand, dass du ein Hund bist." Dieser Trend hat sich jetzt verstärkt. Die Menschen werden von falschen KI-generierten Inhalten überschwemmt und sind zunehmend überfordert damit umzugehen.
Wenn dies nicht gelöst wird, könnte die Verschmutzung öffentlicher Daten durch KI-generierte Inhalte die Informationssuche behindern und das kollektive Verständnis der soziopolitischen Realität oder des wissenschaftlichen Konsenses verzerren.
Außerdem könnte dies zu einem "Schutzschild" für einige prominente Persönlichkeiten werden. In bestimmten Situationen könnten sie belastende Beweise gegen sich als KI-generiert abtun und so geschickt die Beweislast abwälzen.
Google hat zur Verbreitung falscher Inhalte durch generative KI beigetragen und könnte sogar als "Urheber" bezeichnet werden. Die Kugel, die vor vielen Jahren abgefeuert wurde, hat heute endlich ihre eigene Stirn getroffen.
Referenzen:
https://arxiv.org/abs/2406.13843
https://futurism.com/the-byte/google-researchers-paper-ai-internet