Im KI-Zeitalter sind Daten tatsächlich zu einer Schlüsselressource geworden. Mit der zunehmenden Erschöpfung menschlicher Daten werden synthetische Daten als Zukunftsrichtung angesehen, müssen jedoch mit Vorsicht verwendet werden.
Ein kürzlich auf dem Titelblatt von Nature erschienener Artikel hat eine Diskussion ausgelöst. Die Studie weist darauf hin, dass die ausschließliche Verwendung von KI-generiertem Inhalt beim Training zum Zusammenbruch des Modells führen kann. Dies hat in der KI-Community eine breite Diskussion ausgelöst, wobei viele der Meinung sind, dass der Kern des Problems in der Datenqualität und nicht in den synthetischen Daten selbst liegt.
Um einen Modellzusammenbruch zu vermeiden, schlagen Experten folgende Empfehlungen vor:
-
Verwendung gemischter Daten. Der CEO von Scale AI ist der Meinung, dass rein synthetische Daten keinen Informationsgewinn bringen können und dass eine Mischung aus Daten aus der realen Welt, Beteiligung menschlicher Experten und formaler Logik-Engines verwendet werden sollte.
-
Anwendung von Reinforcement-Learning-Methoden. Forscher von Meta und anderen Institutionen schlagen vor, die Modellleistung durch eine "Ranking-Pruning-Feedback"-Methode wiederherzustellen und zu verbessern.
-
Nutzung menschlicher Überwachung. Studien zeigen, dass die Filterung hochwertiger Daten durch menschliche Überwachung effektiver und kostengünstiger ist als direkte manuelle Annotation.
-
Kombination mit realen Daten. In Experimenten führt die alleinige Abhängigkeit von generierten Daten zu Leistungseinbußen, während die Kombination von realen Daten und Feedback die Leistung verbessern kann.
Insgesamt haben synthetische Daten zwar Potenzial, müssen aber vorsichtig und in Kombination mit anderen Methoden eingesetzt werden, um einen Modellzusammenbruch zu vermeiden und die Leistung zu verbessern. Die zukünftige Richtung könnte eine Kombination aus gemischten Daten und Reinforcement Learning sein.