OpenAI hat ein Werkzeug zur Erkennung von KI-generiertem Inhalt entwickelt, das eine Genauigkeit von 99,9% aufweist. Die Idee für dieses Werkzeug wurde bereits im November 2022 vorgeschlagen, wurde aber bisher nicht öffentlich gemacht.
Die Hauptgründe dafür sind zweifach:
- Technische Aspekte:
- Die frühe Erfolgsrate lag bei nur 26%, wurde später auf 99,9% erhöht
- Interne Bedenken, dass es die Qualität des ChatGPT-Schreibens beeinträchtigen könnte
- Risiko der Umgehung, z.B. durch Übersetzung zur Entfernung von Wasserzeichen
- Nutzerpräferenzen:
- Umfragen zeigen, dass weltweit nur 1/4 der Menschen die Einführung von Erkennungswerkzeugen unterstützen
- Fast 30% der ChatGPT-Nutzer gaben an, dass sie es weniger nutzen würden, wenn Wasserzeichen eingeführt würden
- Möglicherweise größere Auswirkungen auf Nicht-Muttersprachler
Innerhalb von OpenAI gibt es Kontroversen darüber. Befürworter sehen es als förderlich für die Ökosystementwicklung, Gegner befürchten Nutzerverluste. Das Werkzeug wurde bisher nicht veröffentlicht.
Neben OpenAI entwickeln auch Unternehmen wie Google und Apple ähnliche Werkzeuge, von denen einige intern getestet, aber noch nicht offiziell eingeführt wurden.
Laut Umfragen nutzen Anwender ChatGPT hauptsächlich zum Schreiben (21%) und für Hausaufgaben (18%), was ein Grund für den Widerstand gegen Erkennungstechnologien sein könnte.
OpenAI plant, bis zum Herbst dieses Jahres eine Strategie zu entwickeln, um die öffentliche Wahrnehmung der KI-Transparenz zu beeinflussen. Konkrete Maßnahmen wurden jedoch noch nicht bekannt gegeben.