Google planeja abrangentemente modelos de grande escala: código aberto, diversidade e comercialização avançam juntos

O Google está se preparando para intensificar seus esforços em sua estratégia.

Na conferência de desenvolvedores Google I/O Connect China 2024, a diversificação dos grandes modelos de linguagem de IA tornou-se um foco principal.

A Google apresentou três variantes diferentes do modelo Gemini para desenvolvimento de aplicativos:

  • Gemini Nano: Modelo mais eficiente para tarefas no dispositivo
  • Gemini 1.5 Flash: Modelo mais rápido e econômico para tarefas de alto volume
  • Gemini 1.5 Pro: Aberto a todos os desenvolvedores, suporta janela de contexto de 2 milhões de tokens

Tanto o Gemini 1.5 Pro quanto o 1.5 Flash agora têm cache de contexto para reduzir os requisitos de computação.

A Google também lançou o Gemma, um modelo irmão do Gemini, com novas versões de 9B e 27B parâmetros. A versão de 27B é otimizada para rodar em uma única GPU NVIDIA no Google Cloud ou em uma única TPU no Vertex AI.

Os modelos Gemini estão agora integrados em ferramentas de desenvolvimento como Android Studio, Chrome DevTools, Project IDX, Colab, VS Code, IntelliJ e Firebase para auxiliar na codificação, depuração, testes, documentação e compreensão de código.

Para o Flutter, a Google lançou o Flutter 3.24 e o Dart 3.5, apresentando uma prévia inicial da nova API "Flutter GPU". Isso permite que os desenvolvedores acessem a GPU usando código Dart para melhorar a renderização gráfica.

A Google também lançou vários novos pacotes como o Flutter_Scene para importar projetos 3D.

Foi introduzida uma prévia inicial do Android Studio ON IDX, que roda inteiramente no navegador. Novos componentes como Firebase AI Monitoring e Checks AI Safety foram lançados para garantir confiabilidade, conformidade e segurança ao construir aplicativos com IA.

Para LLMs de código aberto, a Google lançou o Project Oscar, inicialmente suportando projetos Go com 93.000 submissões de código e 2.000 desenvolvedores.

Para desenvolvimento web, a Google introduziu:

  • API de Regras de Especulação para navegação instantânea
  • API de Transições de Visualização para melhorar as transições de página
  • Chrome DevTools com integração Gemini para eficiência no desenvolvimento

Para desenvolvimento de aplicativos nativos Android, novas ofertas incluem:

  • Modelo Gemini Nano no dispositivo e serviço de sistema AI Core
  • Kotlin Multiplatform para compartilhamento de código multiplataforma
  • Suporte multiplataforma adicionado às bibliotecas Jetpack
  • Beta do Android Device Streaming para testes remotos de dispositivos
  • Integração Gemini na versão estável do Android Studio

Para desenvolvimento em nuvem, a Google delineou uma nova abordagem com:

  • Novos recursos do Vertex AI como cache de contexto
  • Mais de 150 novos modelos incluindo Gemini, Gemma, Anthropic Claude, Meta Llama e modelos Hugging Face
  • Capacidades entre nuvens com PostgreSQL otimizado e BigQuery Omni
  • Configuração automatizada de infraestrutura em 45 minutos
  • Plugin IDE Gemini Code Assist e integrações de banco de dados

Embora a Google esteja se esforçando para comercializar seus LLMs, ainda há áreas para melhoria na qualidade de saída e capacidades de recuperação. Testes recentes mostraram problemas com raciocínio lógico e resolução de problemas matemáticos.

Além disso, o rápido crescimento da IA está levando a um aumento no consumo de energia e emissões de carbono dos centros de dados, apresentando desafios ambientais que precisarão ser abordados.