Der weit verbreitete Einsatz generativer künstlicher Intelligenz im akademischen Schreiben hat Kontroversen über die Definition von Plagiat ausgelöst. Tools wie ChatGPT und andere große Sprachmodelle (LLMs) können die Schreibeffizienz verbessern, machen es aber auch schwieriger, Plagiate zu erkennen.
Viele Forscher sind der Meinung, dass die Verwendung von KI-Tools in bestimmten Situationen erlaubt sein sollte, aber vollständig offengelegt werden muss. Allerdings generieren LLMs Text durch die Verarbeitung großer Mengen bereits veröffentlichter Artikel, was dem "Plagiieren" ähneln könnte. Die Verwendung dieser Tools könnte dazu führen, dass Forscher maschinell generierte Inhalte als ihre eigenen ausgeben oder dass generierte Texte anderen Werken zu ähnlich sind, ohne die Quelle anzugeben.
Eine Umfrage unter 1600 Forschern ergab, dass 68% der Befragten glauben, dass KI Plagiate leichter durchführbar und schwerer zu entdecken machen wird. Experten befürchten, dass LLMs zur Verschleierung absichtlicher Plagiate verwendet werden könnten.
Es gibt Kontroversen darüber, ob die Verwendung von KI-generiertem, nicht zugeschriebenem Inhalt Plagiat darstellt. Einige Experten argumentieren, dass dies als "unautorisierte Inhaltsgenerierung" definiert werden sollte, nicht als Plagiat an sich. Andere argumentieren, dass generative KI-Tools Urheberrechte verletzen.
Seit der Veröffentlichung von ChatGPT ist die Verwendung von KI im akademischen Schreiben explosionsartig angestiegen. Schätzungen zufolge wurden in der ersten Hälfte des Jahres 2024 mindestens 10% der biomedizinischen Zusammenfassungen mit LLMs erstellt. Im Vergleich zu englischsprachigen Ländern zeigen Arbeiten aus Ländern wie China und Südkorea mehr Anzeichen für die Verwendung von LLMs.
Trotz der Kontroversen sehen viele Forscher einen gewissen Wert in KI-Tools für das akademische Schreiben, da sie die Klarheit verbessern und Sprachbarrieren abbauen können. Es herrscht jedoch Verwirrung darüber, wann es sich um Plagiat oder unethisches Verhalten handelt.
Derzeit erlauben viele akademische Zeitschriften die Verwendung von LLMs in begrenztem Umfang, verlangen aber eine vollständige Offenlegung, einschließlich der verwendeten Systeme und Prompts. Autoren sind für die Genauigkeit verantwortlich und müssen sicherstellen, dass kein Plagiat vorliegt.
Mit der Weiterentwicklung der KI-Technologie muss die akademische Gemeinschaft einen Konsens darüber finden, wie diese Tools angemessen eingesetzt werden können, um die akademische Integrität zu wahren.