Google setzt umfassend auf große Sprachmodelle: Open Source, Vielfalt und Kommerzialisierung gehen Hand in Hand

Google plant, seine Strategie verstärkt voranzutreiben.

Auf Googles I/O Connect China Entwicklerkonferenz 2024 wurde die Diversifizierung von KI-Großsprachmodellen zu einem Schwerpunkt.

Google stellte drei verschiedene Gemini-Modellvarianten für die App-Entwicklung vor:

  • Gemini Nano: Effizientestes Modell für Aufgaben auf dem Gerät
  • Gemini 1.5 Flash: Schnellstes und wirtschaftlichstes Modell für Aufgaben mit hohem Volumen
  • Gemini 1.5 Pro: Für alle Entwickler offen, unterstützt 2 Millionen Token Kontextfenster

Sowohl Gemini 1.5 Pro als auch 1.5 Flash verfügen jetzt über Kontext-Caching, um den Rechenaufwand zu reduzieren.

Google lancierte auch Gemma, ein Schwestermodell zu Gemini, mit neuen 9B- und 27B-Parameter-Versionen. Die 27B-Version ist optimiert, um auf einer einzelnen NVIDIA-GPU auf Google Cloud oder einer einzelnen TPU auf Vertex AI zu laufen.

Gemini-Modelle sind jetzt in Entwicklungstools wie Android Studio, Chrome DevTools, Project IDX, Colab, VS Code, IntelliJ und Firebase integriert, um beim Codieren, Debuggen, Testen, der Dokumentation und dem Codeverständnis zu unterstützen.

Für Flutter veröffentlichte Google Flutter 3.24 und Dart 3.5 mit einer frühen Vorschau der neuen "Flutter GPU" API. Diese ermöglicht Entwicklern den Zugriff auf die GPU mit Dart-Code für verbesserte Grafikdarstellung.

Google lancierte auch mehrere neue Pakete wie Flutter_Scene zum Importieren von 3D-Projekten.

Eine frühe Vorschau von Android Studio ON IDX wurde vorgestellt, das vollständig im Browser läuft. Neue Komponenten wie Firebase AI Monitoring und Checks AI Safety wurden eingeführt, um Zuverlässigkeit, Compliance und Sicherheit beim Erstellen KI-gesteuerter Apps zu gewährleisten.

Für Open-Source-LLMs startete Google Project Oscar, das zunächst Go-Projekte mit 93.000 Code-Einreichungen und 2.000 Entwicklern unterstützt.

Für die Webentwicklung führte Google ein:

  • Speculation Rules API für sofortige Navigation
  • View Transitions API für verbesserte Seitenübergänge
  • Chrome DevTools mit Gemini-Integration für Entwicklungseffizienz

Für die native Android-App-Entwicklung gibt es neue Angebote:

  • On-Device Gemini Nano-Modell und AI Core-Systemdienst
  • Kotlin Multiplatform für plattformübergreifende Code-Freigabe
  • Multiplatform-Unterstützung für Jetpack-Bibliotheken
  • Android Device Streaming Beta für Remote-Gerätetests
  • Gemini-Integration in der stabilen Version von Android Studio

Für die Cloud-Entwicklung skizzierte Google einen neuen Ansatz mit:

  • Neue Vertex AI-Funktionen wie Kontext-Caching
  • Über 150 neue Modelle einschließlich Gemini, Gemma, Anthropic Claude, Meta Llama und Hugging Face-Modelle
  • Cloud-übergreifende Fähigkeiten mit optimiertem PostgreSQL und BigQuery Omni
  • Automatisierte Infrastruktureinrichtung in 45 Minuten
  • Gemini Code Assist IDE-Plugin und Datenbankintegrationen

Während Google die Kommerzialisierung seiner LLMs vorantreibt, gibt es noch Verbesserungsbedarf bei der Ausgabequalität und den Abruffähigkeiten. Jüngste Tests haben Probleme beim logischen Denken und Lösen mathematischer Probleme gezeigt.

Zudem führt das rasante Wachstum der KI zu einem erhöhten Stromverbrauch und CO2-Emissionen von Rechenzentren, was Umweltherausforderungen darstellt, die angegangen werden müssen.