Google反击战:Gemini 2.0全线升级,对所有人开放。
AI 在科技巨头和创业公司之间加速竞争越来越激烈。这里 DeepSeek R1 全球科技界的出现点爆了,其强大的竞争对手也没有闲着,先有点, OpenAI 加码带来 Deep Search 并向所有用户开放工具 ChatGPT 搜索功能,之后有Google 升级后正式推出给所有用户。 Gemini 2.0 家族,并且称之为迄今为止“最强大的功能” AI 模型套件。
该模型包括适用于大规模和高频任务Gemini 2.0 Flash、具有最好的编程性能和处理复杂任务的能力Gemini2.0 Pro Experimental 而且性价比很高Gemini 2.0 Flash-Lite,同时也大大提高了推理能力。 Gemini2.0 Flash Thinking 模型。
谷歌 DeepMind 首席技术官 Koray Kavukcuoglu 在官方消息的博客文章中写道:“所有这些模型在发布时都会支持多模式输入和文本输出功能,未来几个月将有更多的方式广泛使用。”
很容易看出,面对 DeepSeek、OpenAI 等待竞争者的强势进攻,Google 我们正在加速战斗,全力推进。 Gemini 2.0 发展生态学。
01 Geminini高效主力模型 2.0 Flash来了
Gemini Flash Google系列是最早的系列。 I/O 2024年发布,以高性能、高频率的任务处理受到开发者的青睐。
去年 12 月,Google Gemini已经发布 2.0 Flash 测试版,正式开启智能体(Agentic)时代。该模型是专门为开发者设计的,具有延迟低、效率高的特点。
上周,Google 进一步升级版本 2.0 Flash 在桌面端和移动端推广更广泛的客户 Gemini 在应用中开放使用,让更多人能够探索 Gemini 创造力、交互性和合作能力。
当下,Google 通过 Google AI Studio 和 Vertex AI 里的 Gemini API 更新后正式发布 Gemini 2.0 Flash。
与竞争对手相比,这种模式的一大优势在于前后窗口,以及许多主流模型(如上周发布的。 OpenAI o3-mini)仅支持 20 万或更少的 tokens,相当于 400 至 500 页面小说,而且 Gemini 2.0 Flash 支持高达 100 万 token,能处理大量数据,特别适合高频、大规模的任务,具有明显的信息整合和长文本理解优势。
现在开发者可以直接使用 2.0 Flash 构建生产应用程序。这个最新的模型在多个关键基准测试中提高了性能。此外,图像生成和文本语音转换功能即将推出。
目前,用户可以在那里 Gemini 应用、Gemini API(Google AI Studio 和 Vertex AI)中间直接上手感觉 2.0 Flash。
提高推理能力 Flash Thinking 模型进入 Gemini App 端
今年初,Google 在 Google AI Studio 中更新了 Gemini 2.0 Flash Thinking Experimental 模型,训练有素之后,这个模型就会在回答问题时产生它所经历的“思考过程”。因此,与 Gemini 2.0 Flash 模型相比,Flash Thinking 在回答问题时,模型可以发挥更强的推理能力。
Google CEO Sundar 在社交平台上Pichai X 上宣布,GoogleGemini 移动应用(iOS 和 Android)已加入了 Gemini 2.0 Flash Thinking 模型,用户可应用于模型选择下拉列表。

简而言之,这个模型可以解释如何回答复杂的问题。
据外媒 Venturebeat 实际上,分析,DeepSeek R1 和 OpenAI 新推出的 o3-mini 该模型不支持多模态输入,换言之,它们不能直接处理照片、文件上传或配件。尽管 R1 这些输入可以在官网和移动终端应用的聊天界面中接收,但只能通过光学字符识别。(OCR)——一种已有 60 多年的历史技术——提取文本信息,并不能真正理解或分析图片中的其它内容。
然而,DeepSeek R1、OpenAI o3-mini 这两种模式都属于新的“推理”模式,会花更多的时间去思考答案,重视“思维链”(chain-of-thought)以及答案的准确性。这些都是典型的大型语言模型(LLM),如 Gemini 2.0 Pro 系列,差别明显。
因此,将 Gemini 2.0、DeepSeek-R1 和 OpenAI o3 通过直接对比,实际上有一些“鸡蛋和苹果”的含义。
不过,当前 Google 也将推出一款更具自主性和智能性的产品 Gemini 2.0 Flash Thinking 模型版本,它可以连接模型 Google 地图、YouTube 和 Google 搜索,扩展 AI 没有这些生态支持,研究和交互的概率 DeepSeek 和 OpenAI,短时间内难以匹敌。
Gemini 2.0 Pro(试验版):处理复杂任务的最强代码能力和
需要更高级的需求 AI 功能用户,Gemini 2.0 Pro(测试版)模型现在已经可以测试了。
Google 表示,Gemini 2.0 Pro Experimental 它是迄今为止最强的代码性能和复杂的任务处理模型,在理解和推理世界知识方面已经超越了过去的所有版本。其特点包括:
超大前后文窗口:支持 200 万 token,可以处理大量数据,深入分析复杂问题。
工具调用能力:可调用 Google Search 实时查询信息,支持代码执行,提高编程能力。
目前,Gemini 2.0 Pro(试验版)已经存在 Google AI Studio、Vertex AI 向开发者开放,并且可以在 Gemini 高级版(Gemini Advanced)选择菜单中应用的桌面和手机模型。

Gemini 2.0 Flash-Lite(公测版):Google 最便宜的模型
此前,Gemini 1.5 Flash 由于其高速、低成本,深受用户喜爱, Google 在保持相同成本和速度的同时,进一步优化质量,推出全新 Gemini 2.0 Flash-Lite,旨在提供高效的经济效益 AI 在不影响质量的情况下解决方案。
Gemini 2.0 Flash-Lite 具有百万 tokens 前后窗口支持多模式输入,类似于完整的。 Flash 模型。
与其它主流同步 LLM API 相比,Gemini 2.0 Flash 定价极具竞争力。Gemini 2.0 Flash-Lite 价格是每百万代币 0.075 美元(输入)和每百万代币 0.30 美元(导出),其它一些主流模式如:
OpenAI 4o-mini:每百万 tokens 输入/导出费用分别为$0.15 / $0.6
Anthropic Claude:每百万 tokens 输入/导出费用高达$0.8 / $4
DeepSeek V3(传统 LLM):每百万 tokens 输入/导出费用为$0.14 / $0.28
相比之下,Gemini 2.0 Flash 在性价比方面更胜一筹,而且在大多数基准测试中都优于 Gemini 1.5 Flash,据官方资料显示,这个模型可以大概为大概。 40,000 张独一无二的照片生成了一行标题, Google AI Studio 付费套餐的费用不足 1 美金,因此,它成为市场上最具吸引力的 LLM 选择之一。
对此,Google AI Studio 负责人 Logan Kilpatrick 在 X 上强调,“Gemini 2.0 Flash 是目前所有 LLM 最有价值的选择,现在是时候建立起来了!

目前,Flash-Lite 可通过 Google AI Studio 和 Vertex AI 公开浏览,预计未来几周内将全面上市。
最终
以上便是 Google 这次带来的重点大模型更新。就模型安全而言,Google 他们还分享了他们的最新投资,他们使用:
加强学习提升:使用 Gemini 对其答案进行自我评价和优化,提高处理敏感问题的能力,确保导出更准确、更合理。
自动红队测试:评估安全隐患,尤其是间接提醒注入(Indirect Prompt Injection)等待网络安全攻击,避免恶意指令被攻击 AI 误用。
本文来自微信微信官方账号“CSDN",整理:屠敏,36氪经授权发布。
本文仅代表作者观点,版权归原创者所有,如需转载请在文中注明来源及作者名字。
免责声明:本文系转载编辑文章,仅作分享之用。如分享内容、图片侵犯到您的版权或非授权发布,请及时与我们联系进行审核处理或删除,您可以发送材料至邮箱:service@tojoy.com




