Google 的 Gemini 2.0 正式面向所有用户开放!
Flash 模型在 Vertex/AI Studio 正式上线!(不再是实验版)
Pro 实验版上线,可在 Vertex/AI Studio 和 Gemini Advanced 中体验!
Flash-Lite 公测版发布(速度更快、成本更低、支持 100 万上下文、多模态输入)!
Flash Thinking 实验版已在 Gemini 应用中免费提供!
连接应用 + Flash Thinking 在 Gemini 应用中也免费开放!
Gemini 2.0 现已全面开放,为开发者和用户带来了显著更新和新模型。这次的发布建立在此前 Gemini 2.0 实验版的基础之上,使强大 AI 变得更加易于使用。
Gemini 2.0 Flash:现已正式上线
Gemini 2.0 Flash 是 Google 高效的主力模型,目前已在 Google AI Studio 和 Vertex AI 中通过 Gemini API 正式上线。开发者可以利用它低延迟、高性能以及 100 万标记的上下文窗口来构建生产级应用。
该模型在大规模、高频率任务和多模态推理方面表现出色。此外,图像生成和文本转语音功能即将推出。用户可以在 Gemini 应用或 API 中立即试用!定价详情可在 Google 开发者博客中查看。
Gemini 2.0 Pro 实验版:Google最强大的模型
Google还发布了 Gemini 2.0 Pro 实验版,这是Google目前性能最强的模型,具备顶级的编程能力,能够处理复杂的提示,且拥有更强的知识理解和推理能力。
它支持 200 万标记的超大上下文窗口,并具备调用工具的能力(例如 Google 搜索和代码执行)。Gemini 2.0 Pro 现已在 Google AI Studio、Vertex AI 以及 Gemini 应用的 Advanced 用户中提供。
Gemini 2.0 Flash-Lite:性价比最高的模型
Google推出了新的 Gemini 2.0 Flash-Lite 模型,它是目前性价比最高的版本,在相同速度和成本下提供比 1.5 Flash 更高的质量,且在大多数基准测试中表现更优。
它也支持 100 万标记的上下文窗口和多模态输入。例如,它能够以极低的成本为大量照片生成描述。Gemini 2.0 Flash-Lite 目前在 Google AI Studio 和 Vertex AI 中公开测试。
Gemini 2.0 Flash Thinking 实验版:在 Gemini 应用中提供
2.0 Flash Thinking 实验版现已面向所有 Gemini 应用用户开放,用户可以在桌面或移动端的模型选择菜单中找到它。它结合了 Flash 的速度与更强的推理能力。
多模态输入与未来发展
所有这些模型在发布时都支持多模态输入,并输出文本,未来还会开放更多模态功能。Google致力于为 Gemini 2.0 系列提供持续的开发与改进。