掘金 人工智能 前天 11:34
刚刚,Gemini 2.5系列模型更新,最新轻量版Flash-Lite竟能实时编写操作系统
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

谷歌发布了Gemini 2.5系列模型的最新更新,包括稳定版的Gemini 2.5 Pro和Flash,以及新推出的Gemini 2.5 Flash-Lite预览版。Flash-Lite被定位为注重成本效益的模型,适合量大任务。该模型支持多模态输入和100万token上下文,并可通过API控制思考预算。性能上,Flash-Lite在某些指标上表现出色,价格也更具优势。用户可在Google AI Studio和Vertex AI上体验。此外,文章还介绍了Gemini 2.5的技术报告,并分享了用户体验和案例,展示了Flash-Lite在不同任务中的应用。

💡谷歌发布了Gemini 2.5系列模型的更新,包括稳定版Gemini 2.5 Pro、Flash,以及新推出的Flash-Lite预览版。

💰Gemini 2.5 Flash-Lite被定位为注重成本效益的模型,适合量大任务,价格更具优势:每百万输入/输出token 0.1/0.4美元,音频输入为0.5美元。

⚙️Flash-Lite支持多模态输入和100万token上下文,可通过API控制思考预算,并支持现有所有原生工具,如谷歌搜索、代码执行等。

📊在性能方面,Flash-Lite在AIME 2025和FACTS Grounding等少量指标上表现出优势,用户体验各不相同。

✨用户可在Google AI Studio和Vertex AI上体验Flash-Lite,并可使用Gemini App中的Pro和Flash版本,谷歌还为Flash-Lite和Flash的定制版本引入了搜索功能。

刚刚,Gemini 系列模型迎来了一波更新:

谷歌 CEO Sundar Pichai 发推表示新推出的 Gemini 2.5 Flash-Lite 是目前性价比最高的 2.5 系列模型。

可以看到,谷歌对 2.5 Flash-Lite 的定位是适合用于「量大且注重成本效率的任务」。相较之下,2.5 Pro 适合编程和高复杂度任务,2.5 Flash 则居中,更适合需要较快速度的日常任务。

据官方博客介绍,Gemini 2.5 Flash-Lite 同样是一个推理模型,同样支持多模态输入和 100 万 token 上下文,并支持通过 API 参数动态控制思考预算。由于 Flash-Lite 针对成本和速度进行了优化,因此与谷歌 DeepMind 的其他模型不同,其「思考」功能默认处于关闭状态。除了函数调用之外,2.5 Flash-Lite 还支持已有的所有原生工具,例如基于谷歌搜索查找依据、代码执行和 URL 上下文。

性能上,Gemini 2.5 Flash-Lite 的整体表现自然会比 2.5 Flash 差一些,而开启思考的版本也比没开启的更强。但在少量指标上,2.5 Flash-Lite 却意外地具有少量分数优势,比如 AIME 2025 和 FACTS Grounding。

价格方面,自然也是与性能挂钩的。如上图底部所示,2.5 Flash-Lite 的定价为每百万输入 / 输出 token 0.1/0.4 美元,而如果是音频输入,则为每百万输入 token 0.5 美元。2.5 Flash 的价格为每百万输入 / 输出 token 0.3/2.5 美元,音频输入的则为 1 美元。性能最佳的 2.5 Pro 价格没有变化,还是贵得多:每百万输入 / 输出 token 1.25/10 美元。

Gemini 2.5 Flash-Lite 的预览版现已在 Google AI Studio 和 Vertex AI 上线,与 2.5 Flash 和 Pro 的稳定版本一同提供。用户也可在 Gemini App 中使用 2.5 Flash 和 Pro。此外,谷歌还为 2.5 Flash-Lite 和 2.5 Flash 的定制版本引入了搜索功能。

另外,谷歌也发布了新版本的 Gemini 2.5 技术报告,从中我们可以看到有关 Gemini 2.5 Flash-Lite 的更多信息,比如在性价比方面,Gemini 系列共同组成了当前 LLM 的佩雷托前沿,是性价比最高的系列模型。

另外,该报告中还提到了一种名为「智能体恐慌(agent panic)」的现象,即在游戏过程中,Gemini 2.5 Pro 遇到了多种可能导致模型模拟「恐慌」的情况。

例如,当队伍中的宝可梦生命值或能量值较低时,模型会反复提醒自己需要立即治疗队伍或逃离当前地牢。有趣的是,这种模型性能模式似乎与模型推理能力的定性可观察到的下降相关——例如,在这种情况持续期间,在游戏过程中完全忘记使用探路工具。

报告地址:storage.googleapis.com/deepmind-me…

作为当今 AI 模型的顶流之一,Gemini 更新自然也吸引了万众瞩目,很多用户已经尝试并分享了自己的体验。

Datasette 开发者、著名技术博主 Simon Willison 用一篇博客分享了自己的体验,下图从左到右分别为 2.5 Pro、2.5 Flash 和 2.5 Flash-Lite 生成的鹈鹕骑自行车 SVG。

simonwillison.net/2025/Jun/17…

而输出 token 数分别为 4,226、14,500、2,070,对应成本分别为 4.2274、3.6253、0.0829 美分。

另外,他还尝试了将一个新的 Twitter Space 的录音转录成文本。结果发现,2.5 Pro 的效果最好,总成本为 18.1 美分,时间 147.5 秒;2.5 Flash 也不错,消耗 10 美分和 72.6 秒。但 2.5 Flash-Lite 却遭遇了错误,中途卡住了。

DeepMind 研究 VP 和深度学习负责人 Oriol Vinyals 则通过一个更加亮眼的示例展示了 2.5 Flash-Lite,即所谓的 Neural OS / 神经操作系统。这看起来像是一个操作系统的 UI,但实际上里面的内容是用户在点击图标后由 2.5 Flash-Lite 实时生成的!

视频详情

机器之心也在 Google AI Studio 中简单实验了新推出的 2.5 Flash-Lite。

首先开启 Thinking 模式,使用如下提示词编写一个小游戏:

编写一个贪吃蛇小游戏,除了常规机制外,里面还要有障碍物。使用鲜艳多彩的颜色。

2.5 Flash-Lite 确实很快,仅用 17.1 秒就完成了任务,效果也还不错,就是障碍物过多了。

接下来,关闭 Thinking 模式,丢给它今年上海高考的作文题:

请完成这道作文题:

有学者用 “专”“转”“传” 概括当下三类文章:“专” 指专业文章;“转” 指被转发的通俗文章;“传” 指获得广泛传播的佳作,甚至是传世文章。他提出,专业文章可以变成被转发的通俗文章,而面对大量 “转” 文,读者又不免期待可传世的文章。

由 “专” 到 “传”,必定要经过 “转” 吗?请联系社会生活,写一篇文章,谈谈你的认识与思考。

要求:(1)自拟题目;(2)不少于 800 字。

2.5 Flash-Lite 仅用 5.9 秒就完成了任务,至于结果,就交给你亲自品鉴了:

最后,分享一个 Gemini 2.5 技术报告的贡献者和致谢名单中隐藏的彩蛋:

你看出来了吗?

参考链接

developers.googleblog.com/en/gemini-2…

blog.google/products/ge…

x.com/googleaidev…

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

Gemini LLM 人工智能 模型更新 Flash-Lite
相关文章