发现明日产品的 2025-03-02 11:39 广东
8 条新鲜资讯 4 个有用工具 1 个有趣案例 3 个鲜明观点
欢迎收看最新一期的 Hunt Good 周报!
在本期内容你会看到:
8 条新鲜资讯
4 个有用工具
1 个有趣案例
3 个鲜明观点
阅读周报之前 ,APPSO 想先分享一首歌,希望大家在音乐的陪伴中享受阅读 ?
无论 AI 如何强大,有些美好的回忆只有人才能创造。
Hunt for News|先进头条
✊ 成本利润率 545%,DeepSeek 首次公开
当人们以为 DeepSeek 开源周已经结束,昨日 DeepSeek 又掏出了 One More Thing ,首次披露了其模型推理系统的成本利润率:545%。
据悉,DeepSeek 在保证服务质量的同时,实现了极高的成本效益:
硬件配置:所有服务使用 H800 GPU,保持与训练一致的 FP8/BF16 精度
动态资源调度:根据白天/夜间负载差异动态调整节点数量,最大化资源利用率
成本数据:24 小时内平均使用 226.75 个节点(每节点 8 个 H800),成本约 $87,072/天
吞吐能力:每台 H800 的 prefill 吞吐约 73.7k tokens/s,decode 吞吐约 14.8k tokens/s
官方表示,以上统计包括了网页、APP 和 API 的所有负载。
如果所有 tokens 全部按照 DeepSeek R1 的定价计算,理论上一天的总收入为 $562,027,成本利润率 545%。
当然我们实际上没有这么多收入,因为 V3 的定价更低,同时收费服务只占了一部分,另外夜间还会有折扣。
? https://mp.weixin.qq.com/s/dEEfMQgDK7y17yVjh6zblA
✊ 硅基流动和潞晨科技两家创始人公开互怼
近日,潞晨科技 CEO 尤洋表示,满血版 DeepSeek-R1 每百万 token(输出)定价 16 元,如果每日输出 1000 亿 token,需要约 4000 台搭载 H800 的机器,以目前 H800 的市价或者折旧来计算,每月仅机器成本就达 4.5 亿元,因此企业方可能面临每月 4 亿元的亏损。「用户越多,亏损越多。」
而在昨日,DeepSeek 首次在知乎公开了相关营收和利润数据,称在所有负载情况下,如果按照 DeepSeek R1 的定价计算,理论上一天总收入为 56.2 万美元,成本利润率高达 545%。
对此,尤洋发文回应 DeepSeek 公布的理论成本利润率。
随后,他也在知乎发文《坑人的硅基流动》,直指硅基流动创始人袁进辉「频繁在朋友圈阴阳他」,并称「硅基流动疑似组织水军长期黑我」。
尤洋在文中分析了硅基流动网站访问量大增的原因,认为主要得益于春节期间绑上国产芯片的宣传效果和邀请码送代金券的拉人头传播。他质疑硅基流动的代金券承诺与实际现金流之间存在巨大缺口,并对其 API 性能表示怀疑。
袁进辉迅速在朋友圈回应,为自家团队春节期间的努力辩护,强调「提供稳定服务」无可厚非,并反击称硅基流动曾被潞晨科技抄袭。
针对抄袭指控,尤洋回应称,实施抄袭的是潞晨科技前 CTO,该人士已离职并加入了袁进辉的公司。随后袁进辉转发了去年橘皮优团队对潞晨科技的指控文章,称潞晨科技「不是一次抄袭,而是多次发生」。
争论进一步扩大,被指为抄袭总负责人的潞晨科技前 CTO 方佳瑞也加入论战,称自己是被尤洋「甩锅」,抄袭的代码与他无关,并透露自己是因质疑「诈骗式期权协议」而被赶走。
并且,袁进辉回应称,「(潞晨)CTO 没加入我们公司,之前加入的是光年之外,后来加入其他大公司了。而且都是他自己犯错甩锅给别人,不是别人的问题。」
到了今天凌晨,尤洋发文致歉称:
本人昨天情绪太冲动,说了一些让人误解 deepseek infrastructure 团队的话。deepseek infrastructure 团队技术一流并给开源社区做出巨大贡献。本人诚挚道歉,已经删除不当表述,感谢大家提醒。
? AI.com 域名出售,要价 1 亿美元
据 The Information 报道,资深域名经纪人拉里·菲舍尔正在帮雇主寻求出售备受瞩目的域名 AI.com,报价高达 1 亿美元(折合人民币 7 亿元)。
据悉,62 岁的菲舍尔已有近 30 年域名交易经验,曾促成多笔高价域名交易,包括将 Messenger.com 卖给Facebook、Skincare.com 卖给欧莱雅、Teams.com 卖给微软以及将 Chat.com 卖给 HubSpot 联合创始人达梅什·沙阿(后者随即将其转售给 OpenAI)。
「如果有人想出售顶级域名,他们会找我,」菲舍尔在纽约一家意大利餐厅接受采访时表示,「我有获取最好价格的声誉。」目前 AI.com 域名的所有者保持匿名,仅透露当初购买该域名是因为与自己的缩写相符,而非看好 AI 的发展。
菲舍尔认为 OpenAI、微软、Google 和 Meta 等科技巨头或加密货币富豪都可能是潜在买家。值得注意的是,目前已知最高域名交易记录为 MicroStrategy 公司 2019 年以 3000 万美元出售的 Voice.com。
菲舍尔表示,他将从本周末开始接受 AI.com 的报价。
? https://www.theinformation.com/articles/ai-com-is-for-sale-asking-price-100-million?rc=a4cwro
? DeepSeek 开源五连发
过去一周,DeepSeek 上演了「开源五连击」。
覆盖计算、通信、存储、算法与模型的协同创新,中国 AI 力量正在用开源精神,把曾经需要天价算力的技术,变得人人可用。??
DeepSeek 开源周 APPSO 系列专题链接直达:
Day 1️⃣:搞懂 FlashMLA,这些细节要注意
Day 2️⃣:降本增效神器,榨干每一块 GPU
Day 3️⃣:300 行代码揭示 V3/R1 推理效率
Day 4️⃣:梁文锋亲自写的代码长什么样?
Day 5️⃣:开源周最后一天,重塑 AI 训练底层逻辑
另外,2 月 25 日,据路透社援引三位知情人士的消息称,DeepSeek 正在加速推出 1 月发布的 R1 模型升级版—DeepSeek R2。
其中两位知情人士表示,DeepSeek 原计划在 5 月初发布 R2,但现在希望尽早推出,具体时间尚未透露。该公司表示,希望新模型在编程能力上表现更佳,并能够支持英语以外的多种语言进行推理。
?️ 文心大模型 4.5 官宣 3 月中上线
百度发文宣布,旗下文心大模型 4.5 将在 3 月 16 日正式上线。
百度表示,文心大模型 4.5 不仅在基础模型能力上有大幅提升,且具备原生多模态、深度思考等能力。本月早些时候,百度曾发文称,文心大模型 4.5 将在今年 6 月 30 日起正式开源;同时其还宣布,文心一言将于 4 月 1 日 0 时起,全面免费,所有 PC 端和 APP 端用户均可体验文心系列最新模型。
此外,百度 CEO 李彦宏也在近期的一次财报电话会议中透露,文心大模型 4.5 将会是百度最好的模型,并且其也转变了「模型发展应该保持闭源」的态度,表示从 DeepSeek 的成功中知道了开源的优势。
? https://mp.weixin.qq.com/s/fErfpPI5opivfBQpj-151Q
♟️ 围棋手因比赛使用 AI 作弊被撤销段位并禁赛
近日,据中国围棋协会发布通报显示,2024 年 12 月 15 日,职业棋手秦思玥在参加全国围棋锦标赛(个人)女子组第九轮比赛时,被裁判赛中例行抽检发现携带手机,并在手机上使用人工智能程序。
通报称,经查看当日赛场视频,听取现场裁判、棋手、工作人员证言,证实秦思玥当天凌晨进入赛场藏匿手机与在比赛过程中作弊,藐视赛场纪律,被询问有关事实时存在隐瞒行为,情节严重。
中国围棋协会表示,根据《中国围棋协会纪律准则和处罚规定》等相关规定,综合考虑违规事实情节及本人态度,经协会纪律与道德工作委员会研究决定,对秦思玥处以撤销职业段位、取消 2024 年全国围棋锦标赛(个人)成绩的处罚,禁止其参加中国围棋协会及会员单位组织或授权组织的所有围棋赛事和活动 8 年。
据悉,秦思玥出生于 2006 年,目前 19 周岁,其在 2020 年通过全国围棋定段赛晋级为职业围棋初段,此后在 2024 年升级为职业围棋二段。
? https://mp.weixin.qq.com/s/a0T8--8q6z89LZGiwZtzhA
? OpenAI 计划将 Sora 整合进 ChatGPT
据 TechCrunch 报道,OpenAI 计划将 Sora 直接整合到 ChatGPT 中。
目前,Sora 仅通过单独网页提供服务。Sora 产品负责人 Rohan Sahai 表示,OpenAI 正积极研究如何在 ChatGPT 中引入 Sora功 能,将两款产品结合起来,但未提供具体时间表。
他指出,最终集成到 ChatGPT 中的 Sora 版本可能不会提供与独立网页应用相同的编辑和拼接功能。
此外,OpenAI 还在扩展 Sora 的功能范围。自推出以来,公司已经增强了 Sora 的网络体验,创建了更多方式让用户浏览社区生成的视频。Sahai 表示,OpenAI 有意为 Sora 开发独立的移动应用,目前团队正在积极招募移动开发工程师。
值得注意的是,OpenAI 还计划将 Sora 的生成能力扩展到图像领域。
虽然 ChatGPT 已经支持由 DALL-E 3 模型提供的图像生成功能,但 Sora 驱动的图像生成器有望创建更加逼真的照片。另外,Sahai 透露 OpenAI 正在开发新版本的 Sora Turbo。
? https://techcrunch.com/2025/02/28/openai-plans-to-bring-soras-video-generator-to-chatgpt/
? 2000 亿美元豪赌!Meta 正在商讨建设 AI 数据中心
据 The Information 报道,Meta 正在筹划建造一座 AI 数据中心园区,预计投资金额可能超过 2000 亿美元,这将成为该公司迄今为止最大规模的项目,也将跻身全球最大数据中心之列。
这座尚未公开报道的新数据中心园区,其规模将是扎克伯格上个月提到的路易斯安那州 AI 数据中心的数倍之巨。虽然 Meta 曾表示路易斯安那州项目将耗资 100 亿美元,但具体包含哪些组件尚不明确。
据了解,Meta 高管已向数据中心开发商表示,公司计划在路易斯安那州、怀俄明州或德克萨斯州等地建设这一大型园区。本月,高级管理人员已前往考察潜在场地。
目前尚不清楚 Meta 是自行建设设施,还是与外部开发商签约,或是与 Oracle 或 CoreWeave 等云计算提供商合作建设和运营。Meta 既使用自己的数据中心,也从亚马逊 AWS 和 Oracle 等云提供商租用 AI 服务器。
一位参与谈判的人士透露,如果扎克伯格在未来改变主意,Meta 不一定需要全额承担建设成本。大型数据中心交易通常分阶段进行,所以 Meta 的协议可能给予其独家权利,但并不强制继续扩大项目规模。
Meta 可能需要签署长期数据中心租约以确保园区使用权,但不需要承诺购买特定数量的 AI 芯片,而芯片采购是此类项目中最昂贵的部分。
尽管投入巨大,Meta 内部对于需要多少 AI 芯片来训练和运行其 AI 尚未明确。
Instagram 负责人 Adam Mosseri 在本月给员工的一份备忘录中表示:「我们可能需要比原先想象的多得多或少得多的计算能力来构建前沿模型。」
? https://www.theinformation.com/articles/meta-discusses-200-billion-ai-data-center-project?rc=a4cwro
Hunt for Tools|先进工具
? OpenAI 最大最贵的模型,GPT-4.5 发布
API 价格方面,因 GPT-4.5 计算量极大,成本高昂,相较于 GPT-4o 价格有了较高上涨。
GPT-4.5 支持联网搜索,并能够处理文件和图片上传,还可以使用 Canvas 来进行写作和编程。不过,目前 GPT-4.5 还不支持多模态功能,如语音模式、视频和屏幕共享。GPT-4.5 主要通过「无监督学习」(就是自己从大量数据中学习)变得更聪明,而不是像 OpenAI o1 或者 DeepSeek R1 那样专注于推理能力。
简单说,GPT-4.5 知道的更多,而 o1 系列更会思考。
API 价格方面,因 GPT-4.5 计算量极大,成本高昂,价格涨到了75 美元 / 百万 tokens,是 GPT-4o 的 30 倍,更是 DeepSeek 的 280 倍。
Sam Altman 提到,GPT-4.5 不是推理型模型,不会在基准测试中碾压其他模型。在目前曝出的实测中,性能的提升远没有价格大。
ChatGPT Pro 用户已经可以用上 GPT-4.5(研究预览版)了。下周,将会逐步开放给 Plus 和 Team 用户;再下一周则是 Enterprise 和 Edu 用户。
? https://x.com/OpenAI/status/1895219591070261266
? Kimi 新模型 k1.6 曝光,代码生成能力超越 o3-mini
月之暗面旗下 Kimi 的最新模型 k1.6 曝光。据全球动态基准测试平台 LiveCodeBench 显示,k1.6 登上测试榜榜首。
具体显示,k1.6-high 在多项代码生成基准测试中超越 OpenAI o3-mini、o1 和通义 QwQ-Max 等多款模型。成绩公布后,月之暗面研究员 Flood Sung 在其个人社交账号表示,榜单中的 k1.6 是一个基于 k1.5 持续训练代码能力的特定版本,目前 k1.6 还在不断训练并提升性能。
此外,月之暗面创始人张予彤也在朋友圈表示,k1.6 还没有发布,但看到 LiveCodeBench 的成绩感到开心,期待智能模型的持续进化。
? https://x.com/test\_tm7873/status/1895039852762013996
? 微软 Phi-4 家族成员上新
微软近日推出了两款全新的小型语言模型(SLM)—— Phi-4-multimodal 和 Phi-4-mini。
Phi-4-multimodal 是一个拥有 56 亿参数的多模态模型,其最大特点是采用了「混合 LoRAs 技术」(Low-Rank Adaptations,低秩适应),能够同时处理语音、视觉和文本信息。
用户可以在智能手机、汽车等本地设备上运行该模型,或者开发轻量级企业应用,如多语言金融服务应用等。
另一款新模型 Phi-4-mini 拥有 38 亿参数,基于密集解码器架构,支持处理长达 12.8 万个标记的序列。
微软表示,尽管体积小巧,该模型在文本任务方面的表现依然优于许多更大的模型,包括推理、数学、编程、指令跟随和函数调用等能力。
在基准测试方面,Phi-4-multimodal 在语音问答任务上与 Gemini-2.0-Flash 和 GPT-4o-realtime-preview 相比存在一定差距。
不过,在数学和科学推理、光学字符识别(OCR)以及视觉科学推理方面,该模型的表现已超过了包括 Gemini-2.0-Flash Lite 和 Claude-3.5-Sonnet 在内的多款大模型。
? https://azure.microsoft.com/en-us/blog/empowering-innovation-the-next-generation-of-the-phi-family/
? Claude 3.7 Sonnet 重磅发布
近日,全球首个「混合 AI 推理模型」Claude 3.7 Sonnet 重磅发布。
据了解,Claude 3.7 Sonnet 的独特之处在于它将实时回答和深度思考的能力整合在同一个模型中。用户可以自主选择「推理」功能,让 AI 进行短时间或长时间的深度思考。
一个模型,两种思考。
Claude 3.7 Sonnet 已经向所有用户和开发者推出,但只有付费购买 Anthropic 高级服务的用户才能获得完整的推理功能。免费用户则可使用标准版 Claude 3.7 Sonnet。
在定价方面,Claude 3.7 Sonnet 每百万输入 token 收费 3 美元(约相当于处理 75 万个单词,比《指环王》全系列还多),每百万输出令牌收费 15 美元。
据《华尔街日报》最新报道,Anthropic 即将敲定一轮高达 35 亿美元的融资,估值将达到 615 亿美元。
多家知名投资机构正在洽谈参与此轮融资,包括 Lightspeed Venture Partners、General Catalyst、Bessemer Venture Partners 以及来自阿布扎比的投资公司 MGX。
? https://techcrunch.com/2025/02/24/anthropic-launches-a-new-ai-model-that-thinks-as-long-as-you-want/
Hunt for Fun | 先玩
? 不说人话,AI 有自己的通信协议
随着 AI 技术的普及,越来越多的 AI 开始执行拨打和接听电话的任务。
在这种情况下,AI 之间不可避免地需要通过电话进行交流。然而,传统的人类语言通信方式在 AI 之间的对话中存在明显缺陷,比如时间效率低下、语音生成的计算成本高昂,且容易出错。
针对这些问题,由软件工程师 Boris Starkov 和 Anton Pidkuiko 开发的 Gibberlink 提出了一种新思路——让 AI 从语音级别转移到声音级别协议来相互通信。
虽然人类可以听到两个 AI 开始使用人类听不懂的「语言」进行沟通,但没有专门设备或软件则无法理解其中包含的信息。
这段视频也一度冲上各大平台热搜
Gibberlink 的核心工作原理建立在一套智能识别机制上。
具体来说,当 AI 与人类交谈时,它会坚持使用常规语音。当检测到另一方也是 AI 代理时,会主动建议切换到声音级协议,如果对方接受这一建议,双方将切换到基于 GGWave 库的声音级协议进行通信。
整个协议设计有标准化消息格式和严格的数据交换结构,以最大程度降低误解风险和潜在安全漏洞。
Gibberlink 带来的好处有很多,比如通过避免语音生成环节,Gibberlink 减少了 90% 以上的计算成本,这对于大规模 AI 部署具有重要意义,以及相同信息的传递时间最多可缩短 80 %,大大加快 AI 间的交互速度。
? https://github.com/PennyroyalTea/gibberlink
Hunt for Insight|先知
? Anthropic CEO:Claude 网页搜索即将到来
近日,Anthropic 公司 CEO Dario Amodei 接受《纽约时报》科技播客《Hard Fork》专访,深入探讨了该公司最新发布的 Claude 3.7 Sonnet 模型等话题。
「市场上许多其他推理模型主要是在数学和竞赛编程上训练的,但它们与现实世界或经济中的任务相关性较低,」Amodei 解释道,「我们训练 Claude 3.7 更多地关注这些现实世界任务。」
在谈到新模型的具体优势时,Amodei 表示,Claude 3.7 Sonnet 在编程方面比之前的版本有了显著提升,尤其在处理复杂指令和理解文档方面表现更为出色。
不过,目前 Claude 尚未具备访问互联网的能力,但 Amodei 透露「网页搜索即将到来」。
并且,他表示 Anthropic 目前正在开发「更大的基础模型」,这些模型「需要更长的时间,有时需要很长时间才能做好」,暗示可能会有 Claude 4 系列在不久的将来推出。
Amodei 还预测有 70% 到 80% 的可能性,人类将在本十年结束前(可能是 2026 年或 2027 年)获得「大量比人类在几乎所有方面都聪明得多的 AI 系统」。
对于 AI 对就业市场的影响,Amodei 预计,短期内 AI 将提高程序员的生产力,但在 18 至 24 个月内,可能会开始替代一些低层次工作。
? https://www.nytimes.com/2025/02/28/podcasts/hardfork-anthropic-dario-amodei.html
? 微软 CEO:我们过度炒作了AGI
近日,微软 CEO 萨提亚·纳德拉在一次播客采访中,就最近问世的微软 Majorana 1 量子芯片以及公司的未来技术发展方向,分享了一系列观点。
纳德拉表示,量子计算对探索密集型任务具有独特优势,它只需少量数据就能产出丰富成果。而「如果将量子技术与人工智能结合,用量子计算来生成或合成数据,就能训练出更优秀的AI模型,两者应该结合使用。」
他认为超大规模市场不会出现赢家通吃的局面,因为企业级买家足够聪明,会需要多个供应商。从微软进入云计算市场的经验看,即使亚马逊已占据市场优势,他们仍然成功打入了这个领域。
在谈到备受关注的 AGI 话题时,纳德拉表示:「我认为我们现在对 AGI 的概念过度炒作了。」他认为衡量 AGI 真正实现的标准——世界经济能以 10% 的速度快速增长。
「如果将 AI 革命类比之前的工业革命,那也应该从生产力进步的角度评判结果。技术发展最大的赢家不会是科技公司,而是使用这些技术和资源突破生产力瓶颈的各行各业。」
对于微软最新推出的 Majorana 1 量子芯片,纳德拉解释道,这是微软 30 年研究历程的重大突破。
他将其比作「晶体管时刻」,认为这款芯片将是第一款能容纳一百万量子比特的物理芯片。「这意味着我们现在甚至可以可靠地隐藏量子信息,测量它,并且可以制造它。」
纳德拉预计,到 2027 年或 2028 年,微软可能制造出第一台容错量子计算机。
? https://www.youtube.com/watch?v=4GLSzuYXh6w
? OpenAI 首席研究官:未来的 GPT-5 可能会是「许多成果的集大成」。
近日,OpenAI 首席研究官 Mark Chen 接受专访,详细解读了 GPT-4.5。
对于外界关注的命名问题,Mark Chen 表示,GPT-4.5 符合公司对「可预测扩展范式」的命名规律。
从 GPT-3 到 GPT-3.5,再到 GPT-4,我们可以预测出训练模型所需的计算量和效率提升能带来什么。这个新模型符合我们对「4.5」版本的预期。
他暗示,未来的 GPT-5 可能会是「许多成果的集大成」。
谈及从 GPT-4 到 GPT-4.5 发布间隔较长的原因,Chen 解释道,这主要是因为 OpenAI 在过去一年半到两年里大力专注于开发推理范式。「我们现在有两个不同的扩展轴:一个是无监督学习,GPT-4.5 是这个轴上的最新实验;另一个是推理。」
当被问及在当前规模下增加算力和数据是否仍能带来同样的回报时,Chen 坚定地表示:
「不,我们仍然看到同样的回报。GPT-4.5 是无监督学习范式的下一个点。我们根据之前训练的所有模型预测性能,在这个案例中,整合了扩展机制,达到了下一个数量级的点。」
在谈到与 DeepSeek 等竞争对手的差异时,Chen 表示,OpenAI 同样重视模型效率优化。
让模型高效服务与开发核心能力是相对独立的。我们在推理堆栈上做了很多工作,也很重视以低成本服务用户。自从推出 GPT-4 以来,成本已经下降了好几个数量级。
他透露,OpenAI 在 GPT-4.5 中也探索了专家混合模型及其他架构改进,这些优化适用于 GPT-4、GPT-4.5 和推理模型的效率提升。
? https://www.youtube.com/watch?v=pdfI9MuxWq8&t=591s&ab\_channel=AlexKantrowitz
彩蛋时间
作者:@gizakdag
工具:Midjourney
链接:https://x.com/gizakdag/status/1894821238314283240
我们正在招募伙伴
? 简历投递邮箱
hr@ifanr.com
✉️ 邮件标题
「姓名+岗位名称」(请随简历附上项目/作品或相关链接)