Google se posiciona ampliamente en modelos de gran escala: avances simultáneos en código abierto, diversidad y comercialización

Google se prepara para intensificar sus esfuerzos en la promoción de su estrategia.

En la conferencia de desarrolladores Google I/O Connect China 2024, la diversificación de los modelos de lenguaje de IA de gran tamaño se convirtió en un enfoque clave.

Google presentó tres variantes diferentes del modelo Gemini para el desarrollo de aplicaciones:

  • Gemini Nano: Modelo más eficiente para tareas en el dispositivo
  • Gemini 1.5 Flash: Modelo más rápido y económico para tareas de alto volumen
  • Gemini 1.5 Pro: Abierto a todos los desarrolladores, admite una ventana de contexto de 2 millones de tokens

Tanto Gemini 1.5 Pro como 1.5 Flash ahora tienen almacenamiento en caché de contexto para reducir los requisitos de cómputo.

Google también lanzó Gemma, un modelo hermano de Gemini, con nuevas versiones de 9B y 27B parámetros. La versión de 27B está optimizada para ejecutarse en una sola GPU NVIDIA en Google Cloud o en una sola TPU en Vertex AI.

Los modelos Gemini ahora están integrados en herramientas de desarrollo como Android Studio, Chrome DevTools, Project IDX, Colab, VS Code, IntelliJ y Firebase para ayudar con la codificación, depuración, pruebas, documentación y comprensión del código.

Para Flutter, Google lanzó Flutter 3.24 y Dart 3.5, con una vista previa temprana de la nueva API "Flutter GPU". Esto permite a los desarrolladores acceder a la GPU usando código Dart para mejorar el renderizado de gráficos.

Google también lanzó varios paquetes nuevos como Flutter_Scene para importar proyectos 3D.

Se introdujo una vista previa temprana de Android Studio ON IDX, que se ejecuta completamente en el navegador. Se lanzaron nuevos componentes como Firebase AI Monitoring y Checks AI Safety para garantizar la fiabilidad, el cumplimiento y la seguridad al crear aplicaciones con IA.

Para LLMs de código abierto, Google lanzó Project Oscar, inicialmente compatible con proyectos Go con 93,000 envíos de código y 2,000 desarrolladores.

Para el desarrollo web, Google introdujo:

  • API de Reglas de Especulación para navegación instantánea
  • API de Transiciones de Vista para mejorar las transiciones de página
  • Chrome DevTools con integración de Gemini para eficiencia en el desarrollo

Para el desarrollo de aplicaciones nativas de Android, las nuevas ofertas incluyen:

  • Modelo Gemini Nano en el dispositivo y servicio del sistema AI Core
  • Kotlin Multiplatform para compartir código multiplataforma
  • Soporte multiplataforma añadido a las bibliotecas Jetpack
  • Beta de Android Device Streaming para pruebas de dispositivos remotos
  • Integración de Gemini en la versión estable de Android Studio

Para el desarrollo en la nube, Google esbozó un nuevo enfoque con:

  • Nuevas características de Vertex AI como almacenamiento en caché de contexto
  • Más de 150 nuevos modelos incluyendo Gemini, Gemma, Anthropic Claude, Meta Llama y modelos de Hugging Face
  • Capacidades entre nubes con PostgreSQL optimizado y BigQuery Omni
  • Configuración automatizada de infraestructura en 45 minutos
  • Plugin IDE Gemini Code Assist e integraciones de bases de datos

Aunque Google está impulsando la comercialización de sus LLMs, aún hay áreas de mejora en la calidad de salida y las capacidades de recuperación. Pruebas recientes han mostrado problemas con el razonamiento lógico y la resolución de problemas matemáticos.

Además, el rápido crecimiento de la IA está llevando a un aumento del consumo de energía y las emisiones de carbono de los centros de datos, planteando desafíos ambientales que deberán abordarse.