谷歌发布Gemini 2.0系列新模型,从高性能到低成本

谷歌发布Gemini 2.0系列新模型,从高性能到低成本

昨日,谷歌公司发布博文,邀请所有 Gemini 应用用户访问最新的 Gemini 2.0 Flash 应用模型,并放开 2.0 Flash Thinking 推理实验模型。

Gemini 2.0 Flash 模型于 2024 年 I/O 大会首次亮相,凭借低延迟和高性能成为开发者热门之选。它适用于大规模、高频率任务,能处理 100 万 tokens 的上下文窗口,具备强大多模态推理能力,还可与 YouTube、Google Search 和 Google Maps 等应用交互,助力用户拓展知识。

基于 2.0 Flash 的 2.0 Flash Thinking 模型,经训练可将提示分解步骤,增强推理能力,其 Experimental 版本还展示思考过程,让用户了解决策逻辑。此外,还推出与多应用互动的 2.0 Flash Thinking 版本,未来将结合新推理能力帮助用户完成更多任务。

谷歌还推出 Gemini 2.0 Pro 实验版,擅长编程、能处理复杂提示,有 200 万 tokens 上下文窗口,支持调用搜索和代码执行工具,开发者和高级用户可在多平台体验。

另外,Google AI Studio 推出 Gemini 2.0 Flash – Lite 模型,号称最具成本效益,保持低成本和快速响应的同时,质量高于 1.5 Flash,支持 100 万 tokens 窗口和多模态输入。

原创文章,作者:Google,如若转载,请注明出处:https://www.kejixun.com/article/705057.html

Google的头像Google认证作者

相关推荐

发表回复

登录后才能评论