Die derzeit existierenden großen Sprachmodelle (LLMs) haben in der Tat viele praktische Anwendungen. Nicholas Carlini, ein Forschungswissenschaftler bei Google DeepMind, hat detailliert über 50 Beispiele geteilt, wie er LLMs in seiner Arbeit einsetzt, die Bereiche wie Programmierung, Schreiben und das Erlernen neuer Technologien umfassen.
Nicholas ist der Meinung, dass LLMs nicht überhyped sind, da sie tatsächlich zunehmend schwierigere Aufgaben bewältigen können. Im vergangenen Jahr verbrachte er jede Woche mindestens einige Stunden mit der Interaktion verschiedener LLMs, die ihm halfen, die Geschwindigkeit des Codierens in Forschungs- und Nebenprojekten um mindestens 50% zu steigern.
Nicholas listet einige konkrete Beispiele für die Verwendung von LLMs auf:
- Erstellung ganzer Webanwendungen mit nie zuvor verwendeten Technologien
- Erlernen neuer Frameworks und Tools
- Automatische Umwandlung von Programmen in C oder Rust zur Leistungssteigerung
- Vereinfachung und Reduzierung großer Codebasen
- Verfassen von initialem Experimentcode für Forschungsarbeiten
- Automatisierung monotoner Aufgaben und einmaliger Skripte
- Ersatz für Websuchen zur Einrichtung und Konfiguration neuer Software
- Hilfe beim Debuggen von Fehlermeldungen
Nicholas teilt diese Anwendungen in zwei Kategorien ein: Lernhilfen und Automatisierung langweiliger Aufgaben. Obwohl diese Anwendungen nicht besonders aufregend erscheinen mögen, stammen sie alle aus realen Arbeitsanforderungen und zeigen den Wert von LLMs bei der Automatisierung langweiliger Teile der Arbeit.
Als Sicherheitsforscher bestand Nicholas' Arbeit in den letzten zehn Jahren darin, zu zeigen, wie KI-Modelle in unbekannten Umgebungen versagen können. Er versteht die Grenzen dieser Systeme vollständig. Dennoch glaubt er, dass LLMs die größte Steigerung seiner Arbeitseffizienz seit der Entstehung des Internets gebracht haben.
Nicholas erklärt detailliert, wie man LLMs verwendet, um vollständige Anwendungen zu erstellen und neue Technologien zu erlernen. Zum Beispiel schrieb er mit GPT-4 ein kleines Spiel namens "GPT-4 Fähigkeiten-Vorhersage-Herausforderung", wobei die gesamte Initialversion der Anwendung fast vollständig von GPT-4 erstellt wurde.
In Bezug auf das Erlernen neuer Technologien gibt Nicholas Beispiele dafür, wie man LLMs als Tutor verwendet, um neue Tools wie Docker zu erlernen. Im Vergleich zu traditionellen Lernmethoden ist es viel effizienter, LLMs direkt das erforderliche Wissen vermitteln zu lassen.
Nicholas' Ziel beim Schreiben dieses Artikels war es, zu beweisen, dass LLMs ihm bereits viel Wert gebracht haben und denjenigen, die nicht wissen, wie man LLMs einsetzt, einige Beispiele zu geben. Er räumt ein, dass LLMs derzeit noch nicht die schwierigsten und interessantesten Teile der Arbeit eines Programmierers lösen können, aber sie können bereits einfache Aufgaben gut bewältigen und die Arbeitseffizienz erheblich steigern.
Vor fünf Jahren konnten LLMs bestenfalls Text produzieren, der flüssig klang, aber praktisch nutzlos war. Heute können sie Nicholas' Programmiereffizienz im Durchschnitt um 50% steigern. Dieser Fortschritt ist beeindruckend und deutet darauf hin, dass LLMs in Zukunft möglicherweise noch größere Veränderungen bringen werden.