36kr 2024年08月13日
突发,200亿超级独角兽巨额融资:一把就是45亿
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

芯片独角兽Groq获D轮6.4亿美元融资,其产品LPU在推理方面有优势,Groq转向提供云计算服务,新资金将助力其发展,此对中国相关企业有鼓舞作用。

💻Groq专做推理芯片,去年适配Meta的LLaMA,使其能在自己芯片上运行,不用英伟达芯片。AI大模型分训练和推理环节,训练芯片注重绝对计算能力,推理芯片更注重综合指标,企业对推理芯片会更多考虑能耗、成本等。

🌟Groq创办于2016年底,创始人乔纳森·罗斯是开发TPU的关键成员,Groq的产品LPU推理速度比英伟达GPU快10倍,成本却降低到十分之一,但LPU部署场景有诸多限制,且英伟达芯片通用性强,CUDA平台被广泛适应。

🚀今年4月,Groq转向向开发者提供云计算服务GroqCloud,因客户自购设置芯片成本高风险大。新资金到位后,Groq可能明年转向4nm制造工艺,以支持更大模型、增强通用性。

最近,芯片独角兽Groq宣布获得D轮6.4亿美元(约合人民币45.86亿元)融资,估值达到28亿美元(约合人民币200亿元)。 

本次融资由贝莱德旗下私募基金组合业务BlackRock Private Equity Partners领投,思科旗下投资基金Cisco Investments及三星电子旗下投资基金Samsung Catalyst Fund跟投。 

01

Groq专做推理芯片,去年,Groq适配了Meta的大型语言模型LLaMA,使其能够在自己的芯片上运行,而无需英伟达的芯片。 

AI大模型分为训练和推理两个环节,需要用到训练芯片和推理芯片。可以理解为让大模型“成型”,用到训练芯片,大模型建好了,让它执行命令、回答问题,用到推理芯片。 

经常在科技报道中看到,微软、谷歌、Meta、xAI等公司囤积了很多英伟达GPU,如A100、A800、H100,用来训练大模型,这些都是训练芯片,注重绝对的计算能力,要求很高、很贵。 

而推理芯片更注重综合指标,相对来说对性能的要求并不高,对精度要求也要更低,在特定的场景下,对通用性要求也低。 

对于训练芯片,企业愿意出最多的钱、砸性能最好的芯片;而对于推理芯片,企业则会更多考虑芯片的能耗、成本,选用性价比最优的。推理阶段,就没必要全用英伟达的,能省点是点,毕竟训练阶段已经花了巨资。 

在训练芯片领域,目前能撼动英伟达的对手,还没有,但是推理芯片领域,则有不少想挑战英伟达。像AMD CEO苏姿丰就坚信:未来大模型推理市场的规模将远远大于模型训练市场(不“坚信”也不行啊,训练芯片实在没法跟英伟达抢市场)。 

02

Groq创办于2016年底,创始人乔纳森·罗斯(Jonathan Ross)来自谷歌,是开发张量处理器(TPU)的关键成员,他设计并实现了TPU的核心功能。当年击败围棋大师李世石的“阿尔法狗”用的就是TPU。可见,罗斯是真正的大佬级人物。 

Groq的产品是“语言处理单元”(LPU),据称其推理速度相较于英伟达 GPU 提高了 10 倍,成本却降低到十分之一。目前有超过 70000 名开发人员使用 GroqCloud 创建应用程序。使用Groq的LPU的小模型或中模型一秒钟可以生成500-750个字段(token),而ChatGPT一秒钟只有40个。 

注意看,LPU的部署场景非常有诸多限制,而英伟达的芯片虽然在一些特定指标上被Groq的LPU超过,但它是通用的,几乎适应任何AI模型、AI任务,LPU做不到。而且,英伟达的CUDA平台被开发者广泛适应,再迁移去使用LPU的架构可能导致任务不稳定。 

今年 4 月,罗斯表示,Groq不再试图直接向客户销售硬件,而是转向向开发者提供云计算服务(GroqCloud)。这是因为客户自己购买和设置 Groq 的芯片成本太高,风险太大。 

而且Groq的LPU也不便宜,每块卡的售价高达20000美元,只能用于推理。如果是垂直模型、行业模型,考虑到LPU的速度,单位成本可能比较划算。 

03

随着这笔新资金的到位,Groq可能会在明年转向4nm制造工艺,以支持更大的模型、增强通用性。罗斯说:“我们打算提供资源,让任何人都能创造尖端的AI产品,而不仅仅是最大的科技公司。这笔资金将使我们能够在GroqCloud中再部署10万多个LPU。” 

Groq的融资,也是对中国的相关企业的间接鼓舞。中美在生成式AI发展上虽然不完全同步,但方向基本一致,这波巨额融资说明高性能推理芯片的价值正在被更广泛地认可。在中国,在推理芯片市场“国产化”浪潮中可能会有一波红利。 

西部证券在今年早些时候也认为,生成式AI的发展是一个不断迭代升级的过程,随着国内生成式AI模型的质量持续提升,有望出现更多优质应用,从而带动推理算力需求快速上升。在推理场景下,算力的性价比显得更为重要。在供给端有所限制的情况下,国产推理芯片有望受益于国内生成式AI应用的落地,迎来重大发展机遇。 

本文来自微信公众号“铅笔道”(ID:pencilnews),作者:华泰诗,36氪经授权发布。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

Groq 推理芯片 云计算服务 AI发展
相关文章