На конференции разработчиков Google I/O Connect China 2024 года ключевым направлением стала диверсификация больших языковых моделей ИИ.
Google представила три различных варианта модели Gemini для разработки приложений:
- Gemini Nano: Наиболее эффективная модель для задач на устройстве
- Gemini 1.5 Flash: Самая быстрая и экономичная модель для высокообъемных задач
- Gemini 1.5 Pro: Открыта для всех разработчиков, поддерживает контекстное окно в 2 миллиона токенов
Теперь и Gemini 1.5 Pro, и 1.5 Flash имеют кэширование контекста для снижения вычислительных требований.
Google также запустила Gemma, родственную модель Gemini, с новыми версиями на 9B и 27B параметров. Версия 27B оптимизирована для работы на одном GPU NVIDIA в Google Cloud или одном TPU в Vertex AI.
Модели Gemini теперь интегрированы в инструменты разработки, такие как Android Studio, Chrome DevTools, Project IDX, Colab, VS Code, IntelliJ и Firebase, для помощи в кодировании, отладке, тестировании, документировании и понимании кода.
Для Flutter Google выпустила Flutter 3.24 и Dart 3.5, представив ранний предварительный просмотр нового API "Flutter GPU". Это позволяет разработчикам получать доступ к GPU с помощью кода Dart для улучшенного рендеринга графики.
Google также запустила несколько новых пакетов, таких как Flutter_Scene для импорта 3D-проектов.
Был представлен ранний предварительный просмотр Android Studio ON IDX, который полностью работает в браузере. Были выпущены новые компоненты, такие как Firebase AI Monitoring и Checks AI Safety, для обеспечения надежности, соответствия требованиям и безопасности при создании приложений с поддержкой ИИ.
Для открытых LLM Google запустила Project Oscar, изначально поддерживающий проекты Go с 93 000 кодовых представлений и 2 000 разработчиков.
Для веб-разработки Google представила:
- API правил спекуляции для мгновенной навигации
- API переходов представлений для улучшенных переходов между страницами
- Chrome DevTools с интеграцией Gemini для повышения эффективности разработки
Для нативной разработки приложений Android новые предложения включают:
- Модель Gemini Nano на устройстве и системный сервис AI Core
- Kotlin Multiplatform для совместного использования кода на разных платформах
- Поддержка мультиплатформенности добавлена в библиотеки Jetpack
- Бета-версия Android Device Streaming для удаленного тестирования устройств
- Интеграция Gemini в стабильную версию Android Studio
Для облачной разработки Google обозначила новый подход с:
- Новыми функциями Vertex AI, такими как кэширование контекста
- 150+ новых моделей, включая Gemini, Gemma, Anthropic Claude, Meta Llama и модели Hugging Face
- Возможности кросс-облачного использования с оптимизированным PostgreSQL и BigQuery Omni
- Автоматизированная настройка инфраструктуры за 45 минут
- Плагин IDE Gemini Code Assist и интеграции с базами данных
Хотя Google стремится коммерциализировать свои LLM, все еще есть области для улучшения качества вывода и возможностей извлечения информации. Недавние тесты показали проблемы с логическим мышлением и решением математических задач.
Кроме того, быстрый рост ИИ приводит к увеличению потребления энергии и выбросов углерода от центров обработки данных, создавая экологические проблемы, которые необходимо будет решать.