谷歌全面布局大模型:开源、多元与商业化并进

Google is preparing to intensify its efforts to advance its strategy.

在谷歌2024年I/O Connect中国开发者大会上,AI大语言模型的多样化成为了关注焦点。

谷歌推出了三种不同的Gemini模型变体用于应用开发:

  • Gemini Nano:最适合设备端任务的高效模型
  • Gemini 1.5 Flash:用于高容量任务的最快速和最经济的模型
  • Gemini 1.5 Pro:向所有开发者开放,支持200万token的上下文窗口

Gemini 1.5 Pro和1.5 Flash现在都具有上下文缓存功能,以减少计算需求。

谷歌还推出了Gemini的姐妹模型Gemma,新增9B和27B参数版本。27B版本经过优化,可在谷歌云的单个NVIDIA GPU或Vertex AI的单个TPU上运行。

Gemini模型现已集成到Android Studio、Chrome DevTools、Project IDX、Colab、VS Code、IntelliJ和Firebase等开发工具中,以协助编码、调试、测试、文档编写和代码理解。

对于Flutter,谷歌发布了Flutter 3.24和Dart 3.5,其中包含新的"Flutter GPU" API的早期预览。这允许开发者使用Dart代码访问GPU以改善图形渲染。

谷歌还推出了几个新的软件包,如用于导入3D项目的Flutter_Scene。

谷歌推出了完全在浏览器中运行的Android Studio ON IDX的早期预览版。新组件如Firebase AI Monitoring和Checks AI Safety被发布,以确保构建AI驱动应用时的可靠性、合规性和安全性。

对于开源LLM,谷歌启动了Project Oscar,最初支持Go项目,包含93,000个代码提交和2,000名开发者。

在Web开发方面,谷歌推出了:

  • 用于即时导航的Speculation Rules API
  • 用于改善页面过渡的View Transitions API
  • 集成Gemini的Chrome DevTools以提高开发效率

对于Android原生应用开发,新产品包括:

  • 设备端Gemini Nano模型和AI Core系统服务
  • 用于跨平台代码共享的Kotlin Multiplatform
  • Jetpack库增加了多平台支持
  • 用于远程设备测试的Android Device Streaming测试版
  • Android Studio稳定版集成Gemini

在云开发方面,谷歌概述了一种新方法:

  • Vertex AI新功能,如上下文缓存
  • 150多个新模型,包括Gemini、Gemma、Anthropic Claude、Meta Llama和Hugging Face模型
  • 跨云功能,优化的PostgreSQL和BigQuery Omni
  • 45分钟内自动化基础设施设置
  • Gemini Code Assist IDE插件和数据库集成

虽然谷歌正在推动其LLM的商业化,但在输出质量和检索能力方面仍有改进空间。最近的测试显示在逻辑推理和数学问题解决方面存在问题。

此外,AI的快速增长导致数据中心的能耗和碳排放增加,这带来了需要解决的环境挑战。