雪球网今日 2024年08月29日
关于特斯拉的DOJO一直是个很迷的东西,最初的梦想应该是训练的ASIC,但即使GOOGLE的TPU在迭代了三代以后,在训练中的能力都有限,主要用于推理,但似乎特斯拉不...
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

特斯拉的DOJO在网络协议等方面具特点,V1即将结束,V2、V3在开发中。它处理视频带宽需求,创建新网络协议降低延迟,成本有竞争力,但在某些方面英伟达仍领先,特斯拉仍在继续推进DOJO。

🎯特斯拉的DOJO架构专门用于处理视频的巨大带宽需求,与大型语言模型不同,其在这方面具有独特性。对于视频,单个训练单元可能是1.7GB的视频文件,这体现了DOJO在处理大规模数据方面的能力。

🚀Tesla通过DOJO创建了自己的网络协议(Telsa以太网传输协议),取代TCP/IP和其他协议如Nvidia的NVLink,将延迟减少了几个数量级。TTPoE的延迟仅为0.0013毫秒,速度几乎是NVLink的两倍,显示出其在网络性能上的优势。

💸DOJO与Nvidia相比在成本上极具竞争力,但英伟达在片上计算方面仍保持显著领先。特斯拉的Tile架构在芯片到芯片集成方面可能比Nvidia更好,但Nvidia的实际芯片本身可能比DOJO芯片好得多。

来源:雪球App,作者: 胡同儿串子,(https://xueqiu.com/1142116395/302665931)

关于特斯拉的DOJO一直是个很迷的东西,最初的梦想应该是训练的ASIC,但即使GOOGLE的TPU在迭代了三代以后,在训练中的能力都有限,主要用于推理,但似乎特斯拉不需要推理... ...所以至少3年内,我对这个集群还是当做风险投资的项目来看,主要训练的贡献依然来自英伟达GPU的采购。

转个最新的X上的评论:

Tesla just presented a highly technical talk about Dojo’s networking protocol at the Hot Chips conference. Here are some high level tidbits I was able to extract. They are nearing the end of Dojo V1. They are working on Dojo V2. Have plans for Dojo V3. Dojo was architected specifically to ingest and deal with the huge bandwidth requirements of video as opposed to, for example, Large Language Models. The individual training unit in an LLM is a 10 byte or so token. For video, it can be a 1.7 gigabyte video file. With Dojo, Tesla created their own networking protocol (Telsa Transport Protocol over Ethernet) to replace TCP/IP and others (like Nvidia’s NVLink) to reduce latency by orders of magnitude. Latencies: TCP/IP: 0.53 ms NVLink: 0.0023 ms TTPoE: 0.0013 ms So almost twice as fast as the industry standard NVLink used in Nvidia supercomputers. Dojo is very, very cost competitive to Nvidia. OK, so people will ask, why isn’t Tesla using Dojo in production rather than the 100,000 Nvidia H100s they supposedly have in their new Cortex datacenter at gigafactory Texas? Tesla hasn’t told us, but I can guess that Nvidia still retains a significant lead in on-chip compute. Tesla’s tile architecture is amazing and probably better than what Nvidia has as far as chip to chip integration goes, but Nvidia’s actual chip itself is probably much better than the Dojo chip. This is only my guess! At any rate, Tesla continues to work on Dojo. Given Nvidia’s high pricing, at some point it will make more sense to switch over to Dojo for new capacity. I’ll have more editorial comments about the future of AI hardware in a later post.
Tesla 刚刚在 Hot Chips 会议上发表了有关 Dojo 网络协议的高度技术性演讲。以下是我摘录的一些高级花絮。 Dojo V1 即将结束。他们正在开发 Dojo V2。有 Dojo V3 的计划。 Dojo 的架构专门用于摄取和处理视频的巨大带宽需求,而不是大型语言模型等。 LLM中的单个训练单元是一个 10 字节左右的令牌。对于视频,它可以是 1.7 GB 的视频文件。 Tesla 通过 Dojo 创建了自己的网络协议(Telsa 以太网传输协议)来取代 TCP/IP 和其他协议(例如 Nvidia 的 NVLink),从而将延迟减少了几个数量级。延迟: TCP/IP:0.53 毫秒 NVLink:0.0023 毫秒 TTPoE:0.0013 毫秒 速度几乎是 Nvidia 超级计算机中使用的行业标准 NVLink 的两倍。 Dojo 与 Nvidia 相比在成本上极具竞争力。 好的,所以人们会问,为什么 Tesla 在生产中不使用 Dojo,而是在德克萨斯州超级工厂的新 Cortex 数据中心中使用 100,000 台 Nvidia H100?特斯拉没有告诉我们,但我可以猜测英伟达在片上计算方面仍然保持着显着的领先地位。 Tesla 的 Tile 架构令人惊叹,就芯片到芯片集成而言可能比 Nvidia 更好,但 Nvidia 的实际芯片本身可能比 Dojo 芯片好得多。这只是我的猜测! 无论如何,Tesla 仍在继续致力于 Dojo。鉴于 Nvidia 的高定价,在某些时候,转向 Dojo 以获得新容量会更有意义。我将在后面的文章中对人工智能硬件的未来发表更多评论。

$特斯拉(TSLA)$

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

特斯拉 DOJO 网络协议 成本竞争 芯片性能
相关文章