LLM-Inferenz: Ausgabeformate haben erheblichen Einfluss auf die Leistung, insbesondere JSON

Strenge Formatbeschränkungen können die Fähigkeit zum logischen Denken beeinträchtigen.

Studien zeigen, dass Formatbeschränkungen die Schlussfolgerungsfähigkeit großer Sprachmodelle (LLMs) beeinträchtigen, insbesondere im JSON-Format. Die Hauptergebnisse umfassen:

  1. Je strenger die Formatbeschränkungen, desto schlechter die Schlussfolgerungsfähigkeit des Modells. JSON-Schemata schnitten am schlechtesten ab, gefolgt von Format-Restriktions-Anweisungen (FRI), dann natürliche Sprache zu Format-Konvertierung und schließlich natürlichsprachliche Prompts.

  2. Verschiedene Modelle haben unterschiedliche Formatpräferenzen: GPT bevorzugt YAML, Claude bevorzugt XML, Gemini/Gemma bevorzugt JSON.

  3. Gründe für die Beeinträchtigung der Schlussfolgerungsfähigkeit durch Formatbeschränkungen:

    • Einschränkung der Fähigkeit, Zwischenschritte bei der Schlussfolgerung zu generieren
    • Erzwungene Formate sind nicht mit der natürlichen Generierungsweise des Modells kompatibel
    • Formatfehler können dazu führen, dass korrekte Schlussfolgerungen als falsch bewertet werden
  4. Lösungsansätze:

    • Die beste Option ist "natürliche Sprache zu Format-Konvertierung", zuerst in natürlicher Sprache antworten, dann in das Zielformat konvertieren
    • Beachtung der Reihenfolge der Schlüssel in strukturierten Ausgaben
    • Reduzierung von Parsing-Fehlern durch Korrektur-Prompts
  5. Es ist ein Gleichgewicht zwischen leicht zu parsendem Format und Erhaltung der Schlussfolgerungsfähigkeit erforderlich.

  6. LLMs als Antwort-Parser verstehen die Bedeutung und den Kontext von Antworten besser als reguläre Ausdrücke.

Die Forschung zeigt, dass bei der Anwendung von LLMs ein Kompromiss zwischen Formatbeschränkungen und Schlussfolgerungsfähigkeit gefunden werden muss, um die beste Leistung zu erzielen.

Link zur Studie