在谷歌2024年I/O Connect中国开发者大会上,AI大语言模型的多样化成为了关注焦点。
谷歌推出了三种不同的Gemini模型变体用于应用开发:
- Gemini Nano:最适合设备端任务的高效模型
- Gemini 1.5 Flash:用于高容量任务的最快速和最经济的模型
- Gemini 1.5 Pro:向所有开发者开放,支持200万token的上下文窗口
Gemini 1.5 Pro和1.5 Flash现在都具有上下文缓存功能,以减少计算需求。
谷歌还推出了Gemini的姐妹模型Gemma,新增9B和27B参数版本。27B版本经过优化,可在谷歌云的单个NVIDIA GPU或Vertex AI的单个TPU上运行。
Gemini模型现已集成到Android Studio、Chrome DevTools、Project IDX、Colab、VS Code、IntelliJ和Firebase等开发工具中,以协助编码、调试、测试、文档编写和代码理解。
对于Flutter,谷歌发布了Flutter 3.24和Dart 3.5,其中包含新的"Flutter GPU" API的早期预览。这允许开发者使用Dart代码访问GPU以改善图形渲染。
谷歌还推出了几个新的软件包,如用于导入3D项目的Flutter_Scene。
谷歌推出了完全在浏览器中运行的Android Studio ON IDX的早期预览版。新组件如Firebase AI Monitoring和Checks AI Safety被发布,以确保构建AI驱动应用时的可靠性、合规性和安全性。
对于开源LLM,谷歌启动了Project Oscar,最初支持Go项目,包含93,000个代码提交和2,000名开发者。
在Web开发方面,谷歌推出了:
- 用于即时导航的Speculation Rules API
- 用于改善页面过渡的View Transitions API
- 集成Gemini的Chrome DevTools以提高开发效率
对于Android原生应用开发,新产品包括:
- 设备端Gemini Nano模型和AI Core系统服务
- 用于跨平台代码共享的Kotlin Multiplatform
- Jetpack库增加了多平台支持
- 用于远程设备测试的Android Device Streaming测试版
- Android Studio稳定版集成Gemini
在云开发方面,谷歌概述了一种新方法:
- Vertex AI新功能,如上下文缓存
- 150多个新模型,包括Gemini、Gemma、Anthropic Claude、Meta Llama和Hugging Face模型
- 跨云功能,优化的PostgreSQL和BigQuery Omni
- 45分钟内自动化基础设施设置
- Gemini Code Assist IDE插件和数据库集成
虽然谷歌正在推动其LLM的商业化,但在输出质量和检索能力方面仍有改进空间。最近的测试显示在逻辑推理和数学问题解决方面存在问题。
此外,AI的快速增长导致数据中心的能耗和碳排放增加,这带来了需要解决的环境挑战。