Lors de la conférence Google I/O Connect China 2024 pour les développeurs, la diversification des grands modèles de langage IA est devenue un point central.
Google a présenté trois variantes différentes du modèle Gemini pour le développement d'applications :
- Gemini Nano : Modèle le plus efficace pour les tâches sur l'appareil
- Gemini 1.5 Flash : Modèle le plus rapide et économique pour les tâches à haut volume
- Gemini 1.5 Pro : Ouvert à tous les développeurs, prend en charge une fenêtre de contexte de 2 millions de tokens
Gemini 1.5 Pro et 1.5 Flash disposent désormais d'une mise en cache du contexte pour réduire les besoins en calcul.
Google a également lancé Gemma, un modèle sœur de Gemini, avec de nouvelles versions à 9 et 27 milliards de paramètres. La version 27B est optimisée pour fonctionner sur un seul GPU NVIDIA sur Google Cloud ou un seul TPU sur Vertex AI.
Les modèles Gemini sont maintenant intégrés dans des outils de développement comme Android Studio, Chrome DevTools, Project IDX, Colab, VS Code, IntelliJ et Firebase pour aider au codage, au débogage, aux tests, à la documentation et à la compréhension du code.
Pour Flutter, Google a publié Flutter 3.24 et Dart 3.5, avec un aperçu précoce de la nouvelle API "Flutter GPU". Cela permet aux développeurs d'accéder au GPU en utilisant du code Dart pour améliorer le rendu graphique.
Google a également lancé plusieurs nouveaux packages comme Flutter_Scene pour importer des projets 3D.
Un aperçu précoce d'Android Studio ON IDX a été présenté, fonctionnant entièrement dans le navigateur. De nouveaux composants comme Firebase AI Monitoring et Checks AI Safety ont été publiés pour assurer la fiabilité, la conformité et la sécurité lors de la création d'applications basées sur l'IA.
Pour les LLM open source, Google a lancé Project Oscar, supportant initialement les projets Go avec 93 000 soumissions de code et 2 000 développeurs.
Pour le développement web, Google a introduit :
- L'API Speculation Rules pour une navigation instantanée
- L'API View Transitions pour de meilleures transitions de pages
- Chrome DevTools avec intégration Gemini pour l'efficacité du développement
Pour le développement d'applications natives Android, les nouvelles offres incluent :
- Le modèle Gemini Nano sur l'appareil et le service système AI Core
- Kotlin Multiplatform pour le partage de code multiplateforme
- Support multiplateforme ajouté aux bibliothèques Jetpack
- Version bêta d'Android Device Streaming pour les tests à distance
- Intégration de Gemini dans la version stable d'Android Studio
Pour le développement cloud, Google a présenté une nouvelle approche avec :
- Nouvelles fonctionnalités Vertex AI comme la mise en cache du contexte
- Plus de 150 nouveaux modèles incluant Gemini, Gemma, Anthropic Claude, Meta Llama et les modèles Hugging Face
- Capacités multi-cloud avec PostgreSQL optimisé et BigQuery Omni
- Configuration automatisée de l'infrastructure en 45 minutes
- Plugin IDE Gemini Code Assist et intégrations de bases de données
Bien que Google pousse à la commercialisation de ses LLM, il reste des domaines à améliorer en termes de qualité de sortie et de capacités de récupération. Des tests récents ont montré des problèmes de raisonnement logique et de résolution de problèmes mathématiques.
De plus, la croissance rapide de l'IA entraîne une augmentation de la consommation d'énergie et des émissions de carbone des centres de données, posant des défis environnementaux qui devront être relevés.