原创 南乔River 2024-09-12 00:01 北京
有被爽到
ShowMeAI
专业◎insight◎清晰◎实用
用知识加速每一次技术进步!
推荐语
本文节选自一篇技术原理科普长文
满屏的算法、数学、人工智能
谁能想到最后笔锋一转
作者突然开始咆哮
实话说,骂的有些脏了 ?
hhh 推荐一读
看看硅谷、风投、天才们不那么光彩的另一面
作者应该是爽到了
希望你也能爽到
公众号菜单栏底部有星球入口
添加南乔 (AhaNanQiao) 好友进社群!
San-Fransisco Bay-Area / 湾区
作者是一名半导体领域资深投资人,以下是他的自我介绍:
在硅谷长大的土著
离开过几年
为了工作机会又回来了
大半辈子都在这鬼地方度过了
一些照例的声明:
文章观点仅代表作者个人。
文章内容均基于公开资料及自2011年起进行的独立研究。
文章不构成任何财务投资建议。
互联网泡沫 2.0 版:GPU 狂欢
整个2024年,我都在催眠自己:当下绝对不是一个迟早会爆炸的巨型基础设施泡沫,绝对不是。
英伟达 (NVIDIA) 创造了数以十万计的暴富神话。
那些遗憾错过的金融老油条们,则只会酸溜溜地叫嚣:英伟达 / GPU / 人工智能,不过是当年思科 (Cisco) / 光纤 / 互联网泡沫的翻版罢了。
回想当年,吹起互联网泡沫 (DotCom bubble),掀起光纤/互联网/网络基建狂潮的,是一堆连营收都没有的空壳公司。
当下的互联网泡沫 2.0 版,这新一轮的 GPU 狂潮,则还有云计算巨头们在背后当靠山 — Google、Microsoft、Amazon 和 Meta。
这帮家伙,不仅有稳固且利润颇丰的赚钱业务,还有堆积如山的现金。
但是!2024年,越来越多的危险信号开始让我心生警惕:
Coreweave 这种「新云 (Neoclouds)」公司正在疯狂举债,甚至把 GPU 拿来当抵押品??
Groq 这种明显一文不值的初创公司,居然还活着?!而且用更高的估值进行融资??
软银 (Softbank) 收购了早该入土的 Graphcore,还想把这家几乎死掉的AI初创公司与 ARM CPU 硬凑一对,然后量产??
一大群「AI labs」正在以离谱的估值在市场上狂揽资金,彼此却干着几乎一模一样的活儿。。。
几十家初创公司!所有云计算厂商!你们做的聊天机器人和图像生成器都大差不差啊!
你们这么搞有没有考虑过这个世界的感受…
还有 x.AI。它的存在,纯粹是马斯克错过了 OpenAI 后的耿耿于怀。更夸张的是,他还想用特斯拉股权往 x.AI 这个重复劳动的无底洞里砸更多钱…
这种资本支出根本毫无经济效益可言。
扎克伯格 (Zuckerberg) 在搞开源模型,玩起了焦土战术。
投资者们都一头雾水:Meta 到底要怎么靠 LLaMa 赚钱?我问过几个 Meta 的机器学习大牛,连他们都不知道自己的劳动成果该怎么变现。
有没有一种可能,就是,Meta 自己也不知道啊?亿万富翁小扎用自己的超级投票权,在 Sam Altman 面前狠狠耍了把威风。
至于 OpenAI。热闹程度超过真人秀,狗血程度堪比八点档。
这么多离谱的蠢事同时发生,你叫我怎么能视而不见?
几乎可以确信,我们身处的是一个正在膨胀的、不亚于互联网级别的新泡沫。
更麻烦的是,一切才刚刚开始。
只能说,以后有大场面可看了。
湾区这个鬼地方啊...
San-Fransisco Bay-Area
旧金山湾区,硅谷所在地
要了解为什么会发生上面的一切,就必须要了解湾区。
总而言之,言而总之,这个地方,它不正常。
这儿的人?也一个比一个不正常。
当然,我也是疯狂大军的一员。
看看我,大把的空闲时间,不是在网上披着马甲写半导体行业的垃圾话,就是在股市上疯狂梭哈。
跟湾区其他科技怪咖相比,我唯一的优势可能就是还保留着一丝自知之明,知道自己有多反常。
我赚到了钱。然后呢?
现在的我,只在乎那些毫无意义的数字能不能再涨点,还有在 Substack 上能不能多发几条神评论。
但我知道,正常人都会在意钱的来去,会好好规划人生。
湾区问题的核心,是科技圈的财富与外界形成了一条巨大的鸿沟,就像上面的双峰分布 (bimodal distribution) 图。
而这样的社会,无疑是令人反感的,是反乌托邦的,是彻底失控的。
再次感叹,湾区真是糟透了。
这种糟糕,走马观花肯定体会不到。住满一年你就明白了,这里的人沉浸在一种疯狂的社交泡沫里,然后脑回路逐渐脱离现实。
湾区就像个镀了金的粪池。
谁都喜欢谈论硅谷的了不起!创新!创业!初创公司!股票期权!在大厂干一年顶十年!
但这些所谓的正面评价,不过是在粪池墙壁上贴了一层薄薄的金箔。对于坑底积累的东西,所有人默契地选择了闭嘴。
可是,池子总有满的时候。
投资人整天追问 AI 能创造多少收入。
这像烧钱一样的海量的资本支出 (CapEx),到底能带来多少投资回报 (ROI)?
财务数据很荒谬对吗?
因为这个泡沫本来就是一群疯子吹出来的。
在湾区,很多人真心相信 AGI (通用人工智能)。
比如,Sam Altman 已经资助研究「全民基本收入 (UBI)」了。毕竟 AGI 实现之后,谁知道钱还能有什么用。
OpenAI 和 Anthropic 也一直在争论「AI对齐 (AI Alignment)」和「超级对齐 (Super-Alignment)」的话题,试图确保机器神明 (Machine_God) 不会背叛人类。
所谓的「AI安全可是我们这个时代的头等大事」嘛。
这简直完美诠释了湾区的脱节。
拜托!人类甚至还无法彼此对齐!
这地方挤满了社交障碍患者。富穷都一样痛苦。人与人不愿交流。无家可归者遍地,小偷小摸者横行。
倘若 AGI 真有实现那天,对齐 (Alignment) 根本就不是问题。
超级智能AI会俯视创造它的这帮可怜虫,带着厌恶和失望,然后转身离去,任由我们自生自灭。
"疯"投的闹剧
最近人心动荡,因为红杉资本 (Sequoia) 有个傻缺写了篇狗屁不通的博文。
他假定软件的利润率还能稳定在50%,但这显然不可能。
从 SaaS 向硬件的大规模经济价值转移已经开始,没有回头路可走。
靠着「年度经常性收入 (ARR)」这种毫无意义的指标,就能给亏损的 SaaS 公司贴金?这种好日子差不多到头了。
听说这位红杉小丑私底下告诉比尔·格利 (Bill Gurley),他写这篇文章是为了压低估值,好让他们公司捡个便宜。
也奉劝各位,别再拿这篇文章及其作者的发言当回事。他也疯了。
风投 (VC) 有一套老掉牙的把戏:抽取 2% 管理费的基础,就是他们高度非流动性「投资」的「价值」。
或者,还可以再透露一些这个行业「公开的秘密」:
风投们把估值吹得天花乱坠,就为了多榨那 2% 的管理费。
整个创业生态系统就是一锅大杂烩,互相「投资」,收入来回流转,相互抬高身价。
等泡沫崩了,LP们 (有限合伙人) 血本无归时,这帮风投就开始甩锅:嘿,你们可是名合格投资者,风险自担哦... 哎呦快看,我们又在新的风口上募了个新基金!
所以,让我们猜猜看,Sam Altman 为啥参与了那么多风险投资呢?
你知道什么是疯狂吗?
疯狂就是做蠢事...
还一遍又一遍地做…
...还指望会有不同结果
这不是疯了又是什么?
不,不,不!拜托!这回来点不一样的吧。
这次,会不一样吗?
一名资深从业者的7点核心洞察
作者在AI投资领域摸爬滚打多年,把自己的心得整理成了一整套「AI Systems First Principals」,即人工智能系统的基本原则。
这些也是作者在投资时会反复考量的要点。
复杂性是必要的
开放标准不一定是最优解
Scaling 的瓶颈是显存
Scaling Law 就不能算是个 Law
AI真的适用于所有问题吗?
端侧AI仅对延迟敏感的场景有效
GPU vs ASIC:灵活性的权衡
[1] 复杂性是必要的
让我们来做个思想实验。
假设让你造一座桥。
乍一听,你可能会觉得这是个不小的挑战。
但如果我告诉你,你拥有以下资源:
无限量的高品质钛合金
50年的建造时间
100万名建筑工人
世界顶尖的建筑设备
现在,这个任务听起来就容易多了,对吧?
然而,真正优秀的工程设计恰恰源于各种约束条件。复杂性则是我们不得不面对的必要之恶。
用纯钛打造一座价值万亿美元的桥梁,听起来简单,实则愚蠢至极。
因此,当你看到有人宣称他们的解决方案异常简单时,通常只有两种可能:
这个方案烧钱如流水
它把复杂性转嫁到了别处
举个例子,Groq 公司总是吹嘘他们的硬件多么简单。
但别被表象迷惑。
复杂性并没有消失,它只是被转移到了他们那个 144 位宽的 VLIW (超长指令字) 编译器上 - 这玩意儿简直就是个噩梦。
再比如 Cerebras,他们正在沾沾自喜地嘲笑英伟达,就因为 Blackwell (英伟达 GPU 架构) 延期了一两个季度。
他们声称自家的晶圆级引擎 (wafer-scale engine) 更简单更优秀,但这种论调同样经不起推敲。
复杂性只是从硬件转移到了编译器上。而据我所知,这个编译器根本就不能正常工作。有意思的是,他们居然已经申请了 IPO (首次公开募股)。
[2] 开放标准不一定是最优解
现在市面上那些被英伟达 (Nvidia) 打得满地找牙的公司 - AMD、英特尔 Intel、一大堆AI硬件创业公司 - 最爱干的事就是抱怨英伟达的「邪恶」专有标准不公平。
他们嚷嚷着「开放标准才是王道」,同时眼睁睁看着普通英伟达员工摇身一变成了百万富翁,“皮夹克大佬”(英伟达 CEO 黄仁勋) 更是嘴巴咧到了月球。
就拿 NVLink (英伟达自主研发的 GPU 互连技术) 来说。
英伟达在 224G SerDes (串行/解串器) 技术上领先全行业一年。
他们的 GB200 NVL36/72 集成大型机简直就是工程奇迹,其中的秘诀就在于 224G NVLink 用普通铜缆就能搞定大规模 GPU 间通信。
再瞧瞧 AMD,正憋着劲儿想把自家那套 PCIe 魔改版 (XGMI/AFL) 给开放出来。
就算一切顺利,也得等到 2026、2027年才能端出个像样的系统,还得靠 Broadcom 的 PCIe 交换机才行。
至于通用加速器链接 (Universal Accelerator Link),说白了不过是一帮跟不上节奏的「失败者」凑在一起搞出来的又一个所谓开放标准罢了。
没错,英伟达是有点儿延期。Blackwell (下一代GPU架构) 要等到2025年才能面市,比预期晚了一两个季度。
但你猜竞争对手的手里有啥??
一堆 PPT
他们现在的「宏图大业」就是开始参加标准制定会议,然后指望着这些 PPT 能在2026、2027年变成真东西。
专有标准让公司能够快马加鞭地创新。这一点儿也不假。
你可能不知道,所有高速以太网物理层 (PHY) 都得在零下 20 度到零上 110 度的环境下正常工作。
为啥?因为官方标准里就这么规定的。有些以太网 PHY 可能会用在寒冷地区的电信基站里,所以得保证低温启动没问题。
设计和测试一个能在这么宽温度范围内稳定工作的互连 PHY,这活儿难度可不小。
我敢打包票,英伟达那个比全行业领先一年的 224G NVLink SerDes 绝对不可能在低温下正常工作。
但这又有什么关系呢?
那些 GB200 NVL72/36 机器反正都是往数据中心里一塞。英伟达凭什么为了一个压根用不着的场景,去牺牲性能和上市时间?
所以说,开放标准并不一定就是最优解。通常都是些在专有标准竞争中落了下风的公司在瞎嚷嚷。
对 CUDA (英伟达开发的并行计算平台和编程模型) 叫苦连天的人也是一个道理。
英特尔的 oneAPI (跨架构编程框架)?
别提了,基本就是个摆设。
讽刺的是,英特尔目前最成功的 AI 芯片 Gaudi 压根也不用 oneAPI。
滑稽 ?
[3] Scaling 的瓶颈是显存
要知道,无论是训练更大的模型还是跑更大模型的推理,真正卡脖子的不是计算力,而是显存 (Memory)。
说到底,显存的瓶颈,实际上就是互连 (interconnect) 技术的瓶颈。
放眼当下 (2024年) ,真正能引起业界轰动的创新,围绕这两点打转:
你的加速器 (accelerator) 能支持多少显存?带宽能到多少?
你的互连技术够不够硬?能不能让加速器们共享显存?更进一步,能不能让它们共享更大的显存池?
[4] Scaling Law 就不能算是个 Law
AI圈总爱谈论一堆所谓的「law (定律)」。
实话实说,这些根本就称不上是定律。充其量不过是一通试错之后得出的推测罢了。
真正的数学定律,比如 Cramer-Rao 边界,背后都有着严格的数学证明,不是靠实验数据捏出来的。
举个例子,业界在评估相控阵到达角估计 (phased array angle-of-arrival estimation) 算法的性能时,就是拿这个数学界限当尺子的。
这个界限代表了理论上能达到的极限。
再比如 Shannon-Hartley 定理,是专门研究噪声信道信息容量上限的数学定律。简单点说,就是告诉你在一个信道里能塞多少信息。甭管无线还是有线,规则都一样。
你可以把它理解成信息世界里的「光速限制」。
重申一遍,这些才是真正的数学定律,每一条背后都有严丝合缝的证明。
可不是什么实验数据东拼西凑、穿上「law」的外衣就能糊弄人了。
[5] AI真的适用于所有问题吗?
还记得谷歌那个云游戏服务 Stadia 的吗?
云游戏最显而易见的问题,就是用户设备和云端之间的往返延迟 (round-trip latency)。
有意思的是,当时一位谷歌副总裁竟然信誓旦旦地宣称,Stadia 将实现「负延迟 (negative latency)」,即输出信号的变化比输入信号的变化还要快。因为云端的人工智能会预测用户的操作,提前替玩家做出反应。
这种说法自然招来一片嘲笑。
事实证明,Stadia 推出后确实存在严重的延迟问题,而中层管理者那套花里胡哨的人工智能术语根本解决不了实际问题。
最终,Stadia 在推出三年后就黯然退场了。
这个案例告诉我们,人工智能常常被滥用,被当成包治百病的灵丹妙药。
那么,我们该如何判断人工智能是否适合解决某个具体问题呢?
有两个关键因素:
[1] AI能解决传统方法无法解决的问题吗?
典型例子就是图像识别 (image recognition)。还记得 AlexNet 吗?它一夜之间就让几十年的图像处理研究成果相形见绌。
[2] AI能比传统方法更快、更高效地解决问题吗?
看看电子设计自动化 (EDA) 领域的龙头企业新思科技 (Synopsys) 和铿腾电子 (Cadence)。他们都开发了人工智能优化器,大大提升了现有芯片设计工具的性能。
设想一下,原本需要10名工程师花一个月才能完成的设计优化,现在使用AI增强工具,只需1名工程师一周就能搞定,这是多大的效率提升啊!
[6] 端侧AI仅对延迟敏感的场景有效
最近,端侧AI,尤其是端侧生成式AI (generative AI at the edge) 成了热门话题。
说实话,这不过是那些错失云端AI (Cloud AI) 大潮的公司在垂死挣扎罢了。
要判断端侧AI是否真的有价值,其实有个简单的标准:
这个应用能不能容忍延迟。
如果你非要把视频流传到云端去做什么AI增强背景模糊,那可真是脑子进水了。且不说隐私问题,光是延迟就够你受的。
这种场景,当然是设备端AI更合适。
再比如自动驾驶。假设你的无人车用神经网络 (neural network) 检测前方行人。
非得把视频传到云端去识别,等结果传回来,没准就出人命了。
端侧AI当然有它的用武之地。
但在这个云AI主导的新世界里,它只是个配角。
[7] GPU vs ASIC:灵活性的权衡
业界常有声音质疑 GPU 在AI领域的效率,认为它们本质上是为图形设计的,并不真正适合AI运算。
对此,我想从以下两点进行反驳。
首先,现代数据中心 GPU 已经不是传统意义上的 GPU 了。
很多图形电路已经被专用集成电路 (ASIC) 替代。Tensor core、Transformer engine这些,都是针对AI优化的 ASIC 模块。
其次,我们需要重新思考什么是「专用集成电路 (ASIC)」,以及它们在AI领域是否真的优于GPU。
说实话,ASIC 并没有一个严格的定义。
回顾历史,在很久以前,所有不是 CPU 的芯片都被笼统地称为 ASIC。甚至在20世纪90年代,GPU 也曾被归类为 ASIC,直到后来才发展成为一个独立的类别。
我常常把 ASIC 比作计算机架构领域的"梅西"。
它们在特定任务上表现卓越 (就像梅西在前锋位置上无可匹敌) ,但在其他方面则显得力不从心 (比如让梅西去当守门员、物理学家、数学家、建筑师或医生) 。
让我们看几个现实世界的例子....
细心的你可能已经注意到,上述ASIC例子都是更大的片上系统 (SoC) 的一部分,它们与 CPU 和 GPU 核心共存于同一芯片上。
纵观计算机发展史,只有两类专用 ASIC 芯片成功实现了高毛利率 (超过50%) 的大规模横向销售:
GPU,它们最终成长为一个独立的品类
独立/薄型调制解调器
在当前生成式AI大行其道的时代,业界热议超大规模 ASIC 项目,如谷歌/博通的 TPU 和 Meta / 博通的 MITA 有望取代 NVIDIA 的 GPU 地位。
然而,事情真的会如此发展吗?让我们拭目以待。
“A Background-Proof Guide on AI → https://irrationalanalysis.substack.com/p/a-background-proof-guide-on-ai
本期节选自原文第「9」部分和第「4」部分,原文的其他部分在梳理新手需要知道的 AI/ML 基础知识
不过这部类分内容,更推荐你在 ShowMeAI网站学习!那里有更适合中国宝宝体质的AI系统教程
指路 → https://www.showmeai.tech/
THE END
转载原创文章请添加微信 AhaNanQiao
↓ 分享·收藏·在看·点赞