一支烟花AI 04月09日 18:09
大模型进入千万上下文时代,意味着什么?
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

Llama4 发布,其 Scout 模型上下文长度达到 1000 万 token,引发行业关注。文章探讨了超长上下文对大模型和应用侧的影响,认为这将带来本质上的能力突破,使 AI 能够处理更完整的信息体系,从而实现更深层次的理解和推理。文章分析了超长上下文对模型、RAG 技术、AI Agent 的影响,并预测算力、AI Infra 和大模型 API 价格将发生变化,预示着 AI 领域应用侧业务的重大变革。

💡 千万上下文窗口带来更长的输入输出,能够让大模型一次性处理书籍、电影剧本等,使 Cursor 和 WindSurf 等应用能够更流畅地运行,同时减少因上下文限制而导致的失败。

🎥 在视频处理方面,千万上下文模型可以理解并分析整部电影或长视频的内容,把握叙事结构、人物发展、情节转折和视觉风格变化,从而进行更全面的理解。

📚 RAG 技术需求降低,但对 RAG 提出了更高的要求,如何在更复杂的 prompt 和更长的模型上下文中进行多路召回,以及如何解决长下文带来的私有知识库的暴增和向量数据库性能问题。

🤖 AI Agent 将迎来大爆发,千万上下文使 Agent 能够从更庞大的知识库中汲取信息,制定更完善的长期计划,并实现真正的多功能整合,构建更丰富的记忆系统,增强对新情况的适应能力。

原创 一支烟一朵花 2025-04-06 19:03 上海

今天在各大信息渠道看到 Llama4 发布的消息,一上来就放出三个模型,具体能力这里就不在赘述,相信大家已经多

今天在各大信息渠道看到 Llama4 发布的消息,一上来就放出三个模型,具体能力这里就不在赘述,相信大家已经多少看到不少介绍了。


我比较感兴趣的是 Llama 4 Scout的上下文长度达到了 1000w token,并且可以在单 GPU 运行。

同时也查了市面上能够达到 1000w上下文的其他模型:

腾讯混元hunyuan-large-longcontext

阿里通义千问Qwen-Long


传统的大型语言模型通常受限于较短的上下文窗口,如8K、32K或128K。

扩展到一千万标记的上下文窗口不仅仅是线性提升,而是带来了本质上的能力突破。


当模型能够同时处理数百页文本时,它不再需要将信息分割成小块来理解,而是能够把握材料的整体结构和内容之间的复杂关联。


这种能力使AI从处理片段转变为处理完整信息体系,从而实现更深层次的理解和推理。

可以预见的是 2025 年其他大模型厂商应该会逐步跟进千万上下文 token 的基础能力,现在的基模厂商之间的竞争很有意思。


一方面每家模型大厂都要有点绝活儿,画图的,写代码的,出报告的,开源的,推理的等等。


另一方面,每当一个现象级能力得到用户认可时,几乎都会在很短的时间内跟进,越来越多的受欢迎功能作为模型的出厂能力直接端到用户面前,这个现象似乎从 DS R1后有愈演愈烈的趋势,谁都不想落后。


我记得之前是奥特曼说过一句话,做应用层的不要想着靠一时的工程能力补齐大模型的所谓短板,应该琢磨怎么好好利用最新的模型基础能力。


这句话在 Manus 身上得到了很好的验证,如今 Manus在内测初期火爆全球后,已经有5 亿美金的估值。


这基本上是一种风向。

应用侧需要输入更多的信息,要求给到大模型,在不同场景下精准的使用大模型的推理,给出更优,更长的回答。

这个完整生命周期越短,速度越快,结果质量越高,带给用户的体验就是越好,体验越好,那就会更坚定的续费月会员,年会员,商业的故事就讲的通了。


这一切,1000w token超长上下文一定是支撑AI 领域应用侧业务一个重要的因素。


我为什么在 Llama4 支持这个特性后写这篇文章?

因为不管它综合能力如何,

Llama一直是基模能力的风向标,在今天,开源的模型已经具备了这个能力,

其他闭源的大模型厂商会不跟进吗?



下面简单分析一下大模型达到 1000w 上下文带来的影响:



更长的输入输出,更精准的控制,一本书,一部电影,一个完整的项目,一次 prompt 搞定

如果你的 prompt 足够优质和精确,那么现在很有可能让大模型给你一次性输出一本回忆录,小说,电影剧本。


Cursor 和 WindSurf可以不用非常频繁的因为长下文输出限制而被打断。

Manus的用户也不用傻傻的等在那里,半个小时得到一个尴尬的超出上下文而失败的结果。


视频内容通常需要分割成短片段处理,传统模型难以理解长视频的叙事结构和内容连贯性。

结合视频帧描述或字幕,千万上下文模型可以理解并分析整部电影或长视频的内容,把握叙事结构、人物发展、情节转折和视觉风格变化。


千万上下文模型可以分析极长的时间序列数据,识别长期趋势、季节性模式、异常事件和多层次周期性变化,提供更全面的时序分析。


气象学家可以上传50年的详细气象记录,模型能够发现长期气候变化模式、稀有天气事件的前兆特征以及多年周期现象。


金融分析师可以利用这种能力分析市场的长期结构性变化和宏观经济周期。



RAG基础能力弱化,降低应用侧技术实施难度

检索增强生成(RAG)是一种通过从外部知识库检索相关信息并将其添加到提示中来增强 LLM 知识的技术 。


虽然 RAG 对于访问实时信息和处理不断变化的知识仍然至关重要 , 但具有千万级 token 上下文窗口的 LLM 可以在其上下文中包含非常多的信息,以至于在许多用例中,对外部检索的需求可能会大大减少甚至消除 。


例如,可以将一个组织的所有内部文档加载到模型的上下文中,从而实现直接的、全面的信息访问 。

这简化了系统架构,提高了效率,并避免了与外部检索相关的潜在问题。


长上下文让业务行团队不再受制于因为 RAG 能力不足导致产品体验不佳,现在可以更加聚焦于业务的研发。


不过,这不代表 RAG 的消退,反而对 RAG 提出更高的要求

如何在更复杂的prompt,更长的模型上下文中进行多路召回?

如何进行更优的 topk 重排?

如何解决长下文带来的私有知识库的暴增,向量数据库性能能跟上吗?


我之前写过一篇对比的文章,大家感兴趣的话可以读一下:

RAG与长上下文LLM:技术本质、性能博弈与融合路径



更重要的是, AI Agent会迎来大爆发

千万上下文使Agent能够从更庞大的知识库中汲取信息,不再需要频繁地访问外部资源。

Agent可以将大量专业资料、参考文献和过往案例一次性加载到工作记忆中,提供更深入、更全面的咨询服务。

传统Agent在规划和执行复杂任务时,由于上下文限制,往往需要不断重新规划和调整。


千万上下文使Agent能够制定更完善的长期计划,同时记住计划的每个细节和依赖关系,保持执行的连贯性。

传统Agent通常专注于单一环境或任务类型,难以在多种环境间无缝切换。


使Agent能够同时保持对多个环境和任务的理解,实现真正的多功能整合。

能够构建更丰富的记忆系统,不仅记住更多的历史交互,还能形成更复杂的知识结构和经验模型,增强对新情况的适应能力。

持久的记忆与状态保持

Agent 可以利用更大的上下文窗口来记住长时间的交互、用户的长期偏好、复杂的任务流程和先前采取的行动 . 这使得 Agent 能够保持状态,理解长期目标,并提供更具上下文相关性和个性化的响应 。一个智能家居 Agent 可以记住用户数周的生活习惯,并根据这些习惯自动调整环境设置 .

复杂的规划与决策

Agent 可以处理包含更多信息和约束的复杂任务,从而能够制定更详细和全面的长期计划 。AI 驱动的项目管理 Agent 可以分析包含数千个任务和依赖关系的项目计划,并进行智能的资源分配和风险预测 .

高效的工具使用与集成

Agent 通常需要使用外部工具和 API 来执行任务。具有更大上下文窗口的模型可以更好地理解工具的文档、记住先前工具使用的结果,并协调多个工具的协同工作,从而实现更智能和更有效的工具集成 .

强大的多模态能力

能够处理多种模态的 Agent 可以从扩展的上下文中受益,以理解和协调来自不同来源的信息 ,智能助手可以分析用户的语音指令、屏幕截图和正在处理的文档,以提供更全面的帮助 .



算力,AI Infra,低价

当应用侧真正使用更多的 token且时,也意味着更多的推理算力,更大更强的 AI Infra, 大模型各种各样的 API 就像水电煤,阳光空气水的意义一样。


当 ToB 和 ToC 的业务再也离不开它时,它就不用担心生存和成本问题了,大模型API 价格一定会像韭菜一样便宜。


2025,

AI 的进化速度是以周为单位进化的,大家擦亮眼睛,不要错过。

阅读原文

跳转微信打开

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

Llama4 大模型 超长上下文 AI Agent RAG
相关文章