原创 信息平权 2024-12-25 22:43 上海
幻方的“圣诞礼物”
幻方悄悄上线了DeepSeek V3,没做任何宣传,讨论热度也极低。但有人做了初步评测,结论就是:已经与GPT-4o、Claude-3.5-sonnet推理能力相当,甚至编程媲美最领先的3.5 Sonnet,超过GPT-4o
之前文章我们说过,中国AI的追赶速度已经被美国注意到了,一位读者访问了OpenAI的人,对DeepSeek的评价相当之高:“与OpenAI的差距大概也就6个月”。其实OpenAI o1发布到DeepSeek自己的"o1"都不到1个月,说实话差距在肉眼可见的缩小...没必要神话OpenAI,也没必要再继续看低中国AI。
AEC的深度纪要(from 本营)
非常干货,算是把AEC来龙去脉讲的清清楚楚。核心结论有:
AEC今年不到3亿美金,明年基本上至少翻倍至6亿美金。用量上,今年100~200万条,明年可能奔到500万条起
500万条拆解:AWS需求最多,它明年对外直接释放200万条。X.AI目前也在大规模买,80-90万条规模。微软120-130条。其他厂商包括谷歌英伟达,都是少量的升级,各20~30万条左右。国内部分,阿里也在上,字节也有想法要上。阿里要上400G 的AEC,也有数十万条。字节更多一些。但这些需求能否落地还是要供应,尤其铜缆物理发泡设备挺紧张
AEC难在retimer芯片,剩下就铜线,再之后组装,组装环节相对简单,比光模块组装还简单。专家认为技术门槛不高,国内厂商都有机会。原来市场小、拿不到芯片,现在都有改善。
retimer芯片,Credo是自研,Marvel、博通也有,但是贵,例如Marvell 7nm的Retimer芯片,研发投入上亿美金,毕竟现在市场量也就几百万条,还没到1000万条,因此平摊下来,研发成本挺高。ALAB(AsteraLabs)也在做AEC用的Retimer。专家认为英伟达后续会用AEC,如Rubin的288卡机柜,专家认为288卡不像现在NVL72一个机柜就放得下,大概率需要双宽机柜或更大尺寸的机柜,互联距离更远、信号速率又更高、传统铜缆传输距离会缩短。此消彼长之下,如果不用AEC估计很难搞定。英伟达可能扶持ALAB(AsteraLabs)。国内有一家厂商是LQKJ,也是做Retimer
Semianalysis今晚更新:英伟达的圣诞礼物
详细分析了下GB300,且Dylan老哥上篇痛批AMD后,被Lisa Su叫去面谈了1.5小时,这篇立马夸了下“MI300的HBM量很大!” 挽尊...
这篇的核心结论包括:GB300/200特别适合目前的o1/o3模型,即长思维链推理场景。其次,称GB300为“圣诞礼物”,因为英伟达大规模放开了CSP的定制权,也就是放开了采购决策。对整个供应链是一次重塑(从NV集中到CSP分散采购决策)。其次,GB300相比GB200平均到单卡的BOM价值量上升6000美金,其中英伟达部分上升4000美金,非英伟达2000美金。增加的BOM项目之前讨论多次了,电源、HBM、CX8等等,具体Semianalysis测算如下:
以上完整纪要和semianalysis报告都已上传星球。顺祝大家圣诞快乐!