极客公园 03月26日 02:30
微信聊天框内置元宝,超级 App 又一轮进化开始
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

微信在其聊天界面中整合了AI助手“元宝”,依托于腾讯混元大模型,提供陪聊、答题、作图等功能。这一举措标志着AI技术从独立功能向基础设施转变,腾讯正积极利用微信的生态优势布局AI领域。文章还探讨了DeepSeek模型的更新及其对行业的影响,以及腾讯在AI基础设施建设上的大量投资,预示着中国互联网正式进入“AI原生应用”时代。

💬 微信内置的AI助手“元宝”基于腾讯混元大模型,提供多种功能,如陪聊、答题、作图和定制红包封面,标志着AI技术开始向基础设施转变。

💻 DeepSeek V3模型在技术规格、编程能力和开源策略上实现显著突破,提高了编程能力,开源协议的调整也可能重塑大模型生态格局。

💰 腾讯计划在AI基础设施上进行大规模投资,包括算力、服务器和IDC建设,表明其在AI领域的战略决心,并推动AI技术的广泛应用。

🔄 微信将AI助手融入聊天界面,整合用户工作流和信息流,有望增加用户在微信上的停留时间和使用频率,加速AI原生应用的发展。


AI 技术正在从独立功能向基础设施转变。


作者|连冉
编辑|郑玄

微信终于在聊天框放了个 AI 助手。

虽然名称上还是「元宝红包封面助手」,但在介绍里可以看到其是依托于腾讯混元大模型的 AI 服务,可以提供陪聊、答题、作图以及定制红包封面等功能。

微信作为国内最大的社交平台,这次内置 AI 助手元宝或许意味着 AI 技术正在从独立功能向基础设施转变,腾讯正在将微信的生态优势转化到 AI 领域。

这会是腾讯重回 AI 牌桌的绝杀开端吗?

图片来源:极客公园


01

实测,用 AI 更丝滑了


极客公园做了一番简单实测。先是问了一下它和元宝 app 的异同有哪些:

图片来源:极客公园

然后我丢入一篇极客公园昨天发布的公众号文章链接,内容是关于 DeepSeek 发布 V3 模型更新,「元宝红包封面助手」回复说「收到,我问问元宝~」,这个回复有点人性化的。

随后它也没问我是否需要开启深度思考,就直接进行了 21 秒的深度思考:

元宝的深度思考过程|图片来源:极客公园

然后给出了我一份分析:

DeepSeek 公司于 2024 年 3 月 24 日发布了 V3 模型的重要更新,该版本虽非预期的 V4 或 R2 迭代,但在性能表现和开源政策上实现了显著突破。以下是本次更新的核心要点:

    技术规格与发布信息

    模型参数规模达 6850 亿,属于小版本升级(V3-0324)

    基于全新 32K GPU 集群进行后训练优化

    已通过官网、App 及小程序等多渠道开放使用

    开源版本同步上线,延续初代 V3557.6 万美元成本比肩 Claude3.5的高性价比特性

核心能力提升

编程能力跨越式突破

    前端开发能力接近 Claude3.7 专家级水平,用户测试显示:

      能生成包含 CSS 动画与 JavaScript 交互的完整 HTML 文件(如天气卡片动态效果)

      代码质量显著优于旧版 R1 模型(对比案例显示视觉效果与功能实现差距明显)

      在网站搭建测试中生成效果与 Claude3.7 Sonnet 相当

    支持复杂指令解析(如通过函数/按钮组实现多天气动画切换)

多模态理解增强

    上下文理解能力提升,尤其在多轮对话场景

    可精准处理跨语言混合编程需求(示例未展示但文中暗示)

开源生态建设

    采用更宽松的开源协议,降低商业应用限制

    延续初代 V3 作为首个冲入 Chatbot Arena 榜单前十开源模型的优势

    发布 1 小时内即吸引全球开发者参与测试验证

行业影响与用户反馈

    被专业用户评价为相当于 Claude Sonnet3.5 到 3.6 的升级幅度

    在无官方基准测试情况下,用户实测数据成为主要验证依据

    开发者社区高度关注其开源协议调整带来的商业化可能性

未来展望

    官方未透露 V4/R2 研发进展,但用户期待值持续升温

    当前版本已确立开源大模型领域新标杆,可能加剧行业竞争

该更新标志着 DeepSeek 在保持成本优势的同时,通过技术迭代缩小了与顶尖闭源模型的差距,特别是在编程领域展现出颠覆性潜力,其开源策略调整或将重塑大模型生态格局。

眼看清明节就要到了,我也问了问它「清明节做点什么好」,对这个问题它倒是没回复「收到,去问元宝」,也没开启深度思考模式,而是很快就输出了答案:

清明节,作为中国传统节日之一,不仅是缅怀先人、寄托哀思的时刻,也是亲近自然、感受春天气息的好机会。以下是一些清明节期间可以进行的活动建议:


    祭扫祖先:前往祖坟或陵园,清扫墓地,献上鲜花、纸钱等,表达对逝去亲人的怀念和敬意。


    踏青赏春:利用清明假期,与家人朋友一同外出踏青,欣赏春天的美景,呼吸新鲜空气,放松心情。


    植树造林:参与植树活动,为大地增添一抹新绿,既是对自然的回馈,也是对生命的礼赞。


    品尝清明食品:制作或购买清明节特有的食品,如青团、清明果等,体验传统节日的风味。


    文化体验:参观博物馆、文化遗址,了解清明节的历史文化背景,增长知识。


    家庭聚会:利用假期与家人团聚,共叙亲情,享受家庭的温馨。


    静思冥想:在宁静的环境中,进行冥想或静思,反思生活,规划未来。


    公益活动:参与社区或慈善机构组织的公益活动,帮助需要帮助的人,传递正能量。


    户外运动:进行徒步、骑行、野餐等户外活动,锻炼身体,享受户外的乐趣。


    摄影创作:带上相机,捕捉春天的美丽瞬间,进行摄影创作,记录生活的美好。


无论选择哪种方式,重要的是要用心感受节日的意义,珍惜与家人朋友相处的时光,同时也要注意安全和环保,让清明节成为一个有意义且愉快的假期。

还有分析文件的功能我也试了一下,之前如果看到比较复杂的文件想让 AI 先帮忙概括总结一下要点再去细读的话,得先去打开 AI 产品或者去相应的网页,但现在可以直接在微信里丢给这个助手,使用体验更丝滑了一些。

这次「元宝红包封面助手」也自行开启了深度思考模式:

图片来源:极客公园

在 21 秒的深度思考后,助手给出了出一份分析:

对文档内容的技术分析与行业洞察

一、语言模型技术演进

核心突破

    从 N-gram 到 Transformer 的范式转变,语言模型参数量级从百万级(GPT-1)跃升至万亿级(GPT-4)

    自监督学习(MLM/NSP)解决了海量数据标注难题,预训练+微调模式成为行业标准

    词嵌入维度从 768(BERT)扩展到 12888(GPT-3),语义表征能力呈指数级提升

关键技术指标

    训练数据量:GPT-3 使用 45TB 数据(约 1 万亿词),相当于 1351 万本牛津词典

    算力成本:ChatGPT 训练需 1 万张 V100 GPU ,成本超 10 亿人民币

    模型效率:DeepSeek 通过稀疏注意力等技术,将训练成本降低至同规模模型的 1/3

二、Transformer 架构创新

技术革命性

    自注意力机制实现 O(n²) 的全局关联建模,相比 RNN 的序列依赖突破显著

    多头注意力层数从 12 层(BERT)增至 96 层(GPT-3),上下文窗口从 512 扩展到 32K(Llama2)

    位置编码从绝对位置(Sinusoidal)发展到相对位置(RoPE),更好处理长序列

工程实践突破

    混合精度训练(FP16/FP32)节省 40% 显存消耗

    梯度检查点技术(Gradient Checkpointing)实现百倍序列长度扩展

    张量并行+流水线并行将千亿参数模型训练效率提升 80%

三、DeepSeek 的技术突破

开源生态贡献

    模型架构:提出动态稀疏注意力机制,推理速度较 Llama 提升 2.3 倍

    训练效率:MoE 架构实现万亿参数模型在千卡集群上的可行训练

    中文优化:构建包含 2.6 万亿 token 的中英双语预训练语料库

性能指标对比

    数学推理:DeepSeek-Math-7B 在 GSM8K 达到 83.5% 准确率(GPT-4 为 92%)

    代码生成:HumanEval 得分 68.9%(CodeLlama-34B 为53.7%)

    多模态理解:ViT-22B 在 ImageNet-21K 上 top-1 准确率达 88.7%

四、行业发展趋势

技术前沿方向

    多模态融合:GPT-4o 实现 200ms 级跨模态响应延迟(人类平均反应时间 250ms)

    推理能力突破:DeepSeek-V3 在定理证明任务上达到 IMO 金牌选手水平

    能源效率:新型混合架构(如DeepSeek-R1)实现每瓦特算力提升 5 倍

中美竞争格局

    开源模型差距从 12 个月缩短至 3 个月(Llama3 vs DeepSeek-v2)

    算力基建:中国在建智算中心规划算力达 2000EFLOPS(美国当前运营 1200EFLOPS)

    行业应用渗透率:中国制造业 AI 质检部署率达 37%,超越美国 29%

五、关键数据启示

经济学视角

    大模型训练边际成本曲线:参数规模每提升 10 倍,单位 token 训练成本下降 28%

    ROI 周期:头部企业模型商业化回报周期从 36 个月缩短至 18 个月

    人才密度:顶尖 AI 研究员中美薪资差距从 50% 收窄至 15%

技术伦理考量

    安全对齐:最新 RLHF 技术将有害输出概率从 3.2% 降至 0.07%

    能耗优化:液冷集群 PUE 值从 1.5 优化至 1.08,碳排放减少 40%

    可解释性:因果归因算法实现 85% 的决策路径可视化


注:文中涉及企业及技术参数均来自公开资料,分析基于技术演进规律推导,具体实施需结合行业动态调整。建议关注浙江大学CCAI中心官网获取最新研究成果。

看来关于是否开启深度思考模式,「元宝红包封面助手」有自己的判断,如果任务很简单,就不开启,反之自动开启。


02

加速 AI 布局


过去一个月,腾讯在 AI 应用领域加速布局。

2 月起,腾讯旗下多个核心产品,如微信、元宝、QQ 浏览器、QQ 音乐、ima(腾讯智能工作台)、腾讯文档、腾讯地图等,均接入了 DeepSeek 模型,并同步支持自研的混元大模型;元宝走向日更级迭代,35 天版本更新 30 次;混元大模型推出腾讯首个自研推理模型混元深度思考模型 Thinker(T1)、发布新一代快思考模型 TurboS、推出 5 个全新 3D 生成模型并全部开源……

业务线也作出整合,为了更好地发挥 AI 技术的协同效应,2 月,腾讯将 QQ 浏览器、搜狗输入法、ima 等十余款 AI 产品及团队从 PCG(平台与内容事业群)划归 CSIG(云与智慧产业事业群),形成以「元宝」为核心的「C 端工具+B 端服务」矩阵。

在资金投入上,腾讯也展现了其在 AI 基础设施建设上的决心。在 1 月的 2024 年度员工大会上,马化腾提到腾讯会持续投入资源进行算力的储备。据报道,腾讯计划在 2025 年加大算力基础设施的投资,投资金额或达 1000 亿,其中计算约 580 亿(GPU 约 400 亿、服务器约 110 亿、存储设备约 55 亿、网络设备将近 58 亿),IDC 部分,自建及相关费用加起来将近 131 亿,租用部分将近要花 200 亿。3 月 19 日,腾讯总裁刘炽平在财报后的电话会议上称,资本支出占收入的百分比将上升到十几个百分点,人工智能将成为战略投资的重点。

微信这次将大模型产品「元宝」内嵌于聊天界面,看似是功能升级,实则是腾讯对 AI 时代的战略卡位。

通过将大模型产品以「AI 版文件传输助手」形态嵌入高频聊天场景,微信将用户的工作流、信息流统一收束,通过总结公众号文章、解析文件、图片等刚需功能,微信在原有的功能之外,新增了一个可以持续产生价值的 AI 助手角色,这可能会让用户在微信的停留时长和打开频次迎来结构性增长。

微信作为国内最大的社交平台,这次内置 AI 助手元宝或许意味着中国互联网正式进入「AI 原生应用」时代,AI 技术正在从独立功能向基础设施转变。

而随着开源日渐成为行业趋势,单纯的大模型技术能力越来越难以成为产品和市场竞争的绝对壁垒。当微信这样的庞大生态,带着海量用户接入 AI 功能,对于所有的 AI 创业者来说可能都要思考:到底什么样的功能和创新,可以让小公司与微信这样的生态竞争用户接触 AI 的入口;到底什么样的壁垒,才能不被现有的超级产品生态,以接入新功能的方式吞噬。

DeepSeek 重塑了 AI 行业的格局,技术公司、大厂和 AI 原生创业者,都要重新思考自己的生态位。


*头图来源:视觉中国

本文为极客公园原创文章,转载请联系极客君微信 geekparkGO



极客一问

你如何看待微信内置元宝




 

热点视频

让机器人自己不断「撞墙」,使其能够适应各种任务,从而突破人为设定的局限


点赞关注极客公园视频号

观看更多精彩视频


 

更多阅读





📍发表于:中国 广东

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

微信 AI助手 腾讯 DeepSeek AI原生应用
相关文章